<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Intelligence Artificielle - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/intelligence-artificielle/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/intelligence-artificielle/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Thu, 09 Apr 2026 08:53:34 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Intelligence Artificielle - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/intelligence-artificielle/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Sécuriser les agents IA : pourquoi l’IAM devient central</title>
		<link>https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/</link>
					<comments>https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/#respond</comments>
		
		<dc:creator><![CDATA[Mathis SIGIER]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 08:53:32 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Digital Identity]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[agents IA]]></category>
		<category><![CDATA[Cybersécurité]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[IA agentique]]></category>
		<category><![CDATA[IAM]]></category>
		<category><![CDATA[Identity and Access Management]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[sécurité SI]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=29612</guid>

					<description><![CDATA[<p>L’essor des agents IA redéfinit les enjeux de sécurité du système d’information   L’intelligence artificielle s’impose désormais comme un levier structurant pour les entreprises : 70%¹ l’ont déjà placée au cœur de leur stratégie. Jusqu’ici, la majorité des déploiements reposaient...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/">Sécuriser les agents IA : pourquoi l’IAM devient central</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<h2 style="text-align: justify;">L’essor des agents IA redéfinit les enjeux de sécurité du système d’information</h2>
<p> </p>
<p style="text-align: justify;">L’intelligence artificielle s’impose désormais comme un levier structurant pour les entreprises : 70%<a href="https://www.wavestone.com/en/insight/global-ai-survey-2025-ai-adoption/" target="_blank" rel="noopener">¹</a> l’ont déjà placée au cœur de leur stratégie. Jusqu’ici, la majorité des déploiements reposaient sur des assistants conversationnels capables de restituer de l’information, parfois enrichie par des données internes, mais dont les interactions avec le système d’information restaient limitées.</p>
<p style="text-align: justify;">Une rupture est désormais en cours : l’essor de l’IA agentique. Contrairement aux simples chatbots, les agents IA ne se contentent plus de répondre ; ils raisonnent, décident d’appeler des outils et déclenchent des actions. Ils peuvent envoyer un courriel, planifier un déplacement, mettre à jour un dossier, initier une transaction ou, demain, exécuter des opérations plus sensibles encore. Leur promesse en matière d’automatisation est considérable. Leur impact potentiel sur la surface d’attaque du système d’information l’est tout autant.</p>
<p style="text-align: justify;">Car dès lors qu’un système d’IA agit, une question devient centrale : au nom de qui agit-il, avec quels droits, dans quel périmètre, et sous quel contrôle ?</p>
<p style="text-align: justify;">Cette question est d’autant plus critique que les usages progressent rapidement : 51 %<a href="https://www.pagerduty.com/resources/ai/learn/companies-expecting-agentic-ai-roi-2025/" target="_blank" rel="noopener">²</a> des organisations ont déjà déployé un agent IA à destination de leurs collaborateurs, tandis que 59 %<a href="https://cybernews.com/ai-news/ai-shadow-use-workplace-survey/" target="_blank" rel="noopener">³</a> des salariés reconnaissent utiliser des agents IA non officiellement autorisés. Au-delà des usages individuels, chaque direction métier peut être tentée de déployer ses propres agents pour répondre à des besoins locaux. Ce phénomène alimente un Shadow IT agentique, dans lequel les agents se multiplient de manière fragmentée, avec des architectures hétérogènes, des contrôles variables et une gouvernance souvent lacunaire.</p>
<p style="text-align: justify;">Dans ce contexte, l’Identity and Access Management (IAM) doit redevenir le centre de gravité de la stratégie de sécurité. Toute donnée qu’un agent peut consulter, toute ressource qu’il peut modifier, toute action qu’il peut exécuter doivent relever d’un dispositif de contrôle d’accès, de traçabilité et de gouvernance centralisé.</p>
<p style="text-align: justify;">Cet article propose d’analyser la sécurisation des agents IA à travers le prisme de l’IAM, non comme une brique parmi d’autres, mais comme l’un des garde-fous structurants pour encadrer leurs usages et protéger durablement le système d’information.</p>
<p> </p>
<h2 style="text-align: justify;">Des assistants conversationnels aux agents IA : comment ils interagissent avec le SI</h2>
<p> </p>
<h3 style="text-align: justify;">Par quels mécanismes un agent IA peut-il agir sur une application ?</h3>
<p style="text-align: justify;">La capacité d’un agent IA à interagir avec les applications du système d’information repose sur l’émergence de nouveaux protocoles, parmi lesquels le Model Context Protocol (MCP) occupe aujourd’hui une place croissante. Ce type de protocole permet à un agent IA de dialoguer avec des applications tierces via une couche intermédiaire, souvent matérialisée par une brique IT appelé serveur MCP.</p>
<p style="text-align: justify;">Ce serveur MCP agit comme un composant d’exposition et d’orchestration. Il reçoit des requêtes émises par un modèle d’IA, les traduit en appels exploitables, puis les relaie vers les API de l’application cible.  Pour cela, le serveur MCP met à disposition du modèle des outils (“tools”) décrivant les actions qu’il est autorisé à invoquer. Une fois le serveur déclaré dans l’interface conversationnelle ou dans l’environnement de l’agent, le modèle peut décider, en fonction de la demande utilisateur et de son raisonnement, d’appeler un ou plusieurs de ces outils.</p>
<p style="text-align: justify;">D’un point de vue sécurité, cela introduit une question d’identité : comment l’utilisateur final est-il authentifié, et comment cette identité est-elle propagée — ou non — jusqu’aux services cibles ? Dans les architectures modernes, l’authentification utilisateur repose généralement sur OpenID Connect (OIDC), tandis que l’autorisation d’accès aux API repose sur OAuth 2.x via des jetons d’accès. L’enjeu, pour un agent, est de garantir que les appels aux outils et aux API soient réalisés dans un modèle contrôlé de délégation : l’agent agit-il avec ses propres droits, avec les droits de l’utilisateur, ou selon un mécanisme hybride ?</p>
<p><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-29614" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1.png" alt="Processus d'action pour serveur MCP" width="624" height="344" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1.png 624w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1-346x191.png 346w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1-71x39.png 71w" sizes="(max-width: 624px) 100vw, 624px" /></p>
<p style="text-align: justify;">Illustrons ce fonctionnement à travers un cas d&rsquo;usage : la planification d&rsquo;une réunion par un agent IA. L’utilisateur formule sa demande dans l’interface conversationnelle : « Planifie une réunion avec l’équipe demain à 10h ». L’agent IA analyse la requête et décide d’utiliser l’outil « Calendrier » mis à disposition par le serveur MCP. Il envoie alors une requête structurée à ce serveur, contenant uniquement les informations nécessaires à la création de l’événement (participants, date, heure, sujet). Le serveur MCP relaie cette demande à l’API du calendrier d’entreprise, qui permet de créer la réunion.</p>
<p style="text-align: justify;">En apparence, le mécanisme est simple. En pratique, il introduit un changement majeur : le modèle ne se contente plus d’assister l’utilisateur ; il devient un intermédiaire actif entre l’intention humaine et l’exécution technique dans le SI.</p>
<p> </p>
<h3 style="text-align: justify;">Un mode de fonctionnement opaque</h3>
<p style="text-align: justify;">Cette architecture soulève immédiatement une difficulté de sécurité : dans de nombreux cas, le composant d’intégration ne dispose que d’une visibilité partielle sur le contexte d’origine. Il reçoit une requête structurée, mais pas nécessairement l’intégralité de la requête initiale, des arbitrages du modèle ou des éléments qui ont conduit au choix de l’outil invoqué. Le système d’information voit alors arriver une action, sans toujours pouvoir reconstituer de manière fiable la chaîne complète qui relie la demande utilisateur, le raisonnement du modèle, l’appel d’outil et l’effet final produit. Cette perte de contexte est d’autant plus critique lorsque l’appel à l’API est porté par un jeton OAuth : selon l’architecture, le service cible peut ne voir qu’une identité applicative (compte de service / application) et non l’utilisateur réel à l’origine de la demande. Cela fragilise l’attribution, la détection d’abus et la capacité à appliquer des politiques conditionnelles différenciées entre action humaine et action agentique.</p>
<p style="text-align: justify;">Autrement dit, l’agent interagit avec le SI selon une logique partiellement opaque, qui rompt avec les schémas plus traditionnels d’interaction applicative. Cette opacité complique le contrôle en temps réel, la traçabilité ex post, ainsi que l’attribution claire de responsabilité.</p>
<p> </p>
<h2 style="text-align: justify;">Une technologie émergente qui pose des défis de sécurité</h2>
<p> </p>
<p style="text-align: justify;">L’IA agentique introduit des cas d’usage nouveaux, mais aussi des risques nouveaux, qui doivent être analysés et traités au niveau de l’IAM. Quatre défis apparaissent comme particulièrement structurants.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 1 : Recenser les agents IA </h3>
<p style="text-align: justify;">Le premier défi est celui de la visibilité. Dans de nombreuses organisations, il n’existe aujourd’hui ni cartographie exhaustive des agents IA déployés, ni inventaire consolidé des outils auxquels ils sont connectés.</p>
<p style="text-align: justify;">Cette situation résulte de deux dynamiques :</p>
<ul style="text-align: justify;">
<li>D’une part, les usages se développent souvent en dehors des circuits de gouvernance historiques : certaines équipes déploient des agents pour leurs besoins propres, sans associer en amont les équipes sécurité, IAM ou architecture et dans parfois dans des solutions plateformes qui permettent à chacun de construire ses propres usages.</li>
<li>D’autre part, les modalités techniques d’intégration sont diverses. Le MCP constitue une approche montante, mais il coexiste avec des intégrations propriétaires, des connecteurs natifs à certains écosystèmes, des mécanismes d’exécution locale de code, ou encore des capacités embarquées directement dans les plateformes des éditeurs.</li>
</ul>
<p style="text-align: justify;">Le sujet n’est donc pas seulement celui du recensement des agents eux-mêmes, mais celui de l’identification de l’ensemble de la chaîne d’exécution : agent, interface, outils exposés, applications cibles, comptes utilisés, données manipulées et flux générés. Sans cette visibilité, aucune gouvernance sérieuse n’est possible.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 2 : Attribuer et gouverner les droits des agents IA</h3>
<p style="text-align: justify;">Le deuxième défi concerne l’autorisation. Les modèles IAM traditionnels ne disposent pas encore, dans la plupart des environnements, d’un objet natif et généralisé permettant de représenter proprement un agent IA comme une identité gouvernable à part entière.</p>
<p style="text-align: justify;">En pratique, les composants intermédiaires sont fréquemment enregistrés comme des applications techniques ou opèrent à l’aide de comptes de service. Il en résulte plusieurs dérives connues : droits trop larges, absence de séparation fine entre les capacités d’un agent et celles du composant qui l’héberge, difficulté à appliquer le moindre privilège, et impossibilité de différencier clairement une action humaine directe d’une action exécutée par un agent.</p>
<p style="text-align: justify;">Le risque est majeur : l’agent n’exécute plus seulement une intention métier ; il devient un vecteur d’accès indirect au SI, parfois avec un niveau de privilège supérieur à ce qui serait acceptable pour un utilisateur ou une application classique.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 3 : Authentifier un agent IA</h3>
<p style="text-align: justify;">L’authentification constitue le troisième défi, à deux niveaux distincts. Il faut d’abord authentifier correctement l’utilisateur final, afin de garantir que l’agent n’agit pas dans un vide identitaire. Mais il faut également authentifier l’agent lui-même, ou à tout le moins le composant qui agit pour son compte, afin de pouvoir lui appliquer des politiques spécifiques, des restrictions adaptées et des exigences de supervision proportionnées.</p>
<p style="text-align: justify;">Cette double exigence est nouvelle par son intensité : avec les agents IA, le système doit simultanément gérer l’identité du demandeur, l’identité du système exécutant, et la relation précise entre les deux.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 4 : Tracer les actions réalisées par les agents IA</h3>
<p style="text-align: justify;">Le dernier défi est celui de la traçabilité. Dans de nombreuses architectures actuelles, les journaux permettent surtout d’observer l’appel technique émis vers le service cible. En revanche, il reste difficile de reconstituer de manière fiable :</p>
<ul style="text-align: justify;">
<li>quel utilisateur est à l’origine de la demande ;</li>
<li>quel agent a décidé ou exécuté l’action ;</li>
<li>dans quel contexte métier l’appel a été réalisé ;</li>
<li>quelles étapes intermédiaires ont conduit à l’exécution finale.</li>
</ul>
<p style="text-align: justify;">Ce déficit d’auditabilité fragilise à la fois la détection, l’investigation et la responsabilité. Lorsqu’une action sensible est déclenchée, il doit être possible de déterminer si elle résulte d’une instruction légitime, d’une mauvaise interprétation, d’une dérive autonome, d’un abus de privilège ou d’une compromission du contexte d’entrée, par exemple via une attaque de type prompt injection.</p>
<p> </p>
<h2 style="text-align: justify;">L&rsquo;IAM comme cadre de référence pour sécuriser les agents IA</h2>
<p> </p>
<h3 style="text-align: justify;">Les grands principes IAM restent inchangés</h3>
<p style="text-align: justify;">Face à cette transformation, un point doit être clairement affirmé : les fondamentaux de l’IAM ne disparaissent pas avec l’IA agentique. Au contraire, ils redeviennent essentiels.</p>
<p style="text-align: justify;">Un système d’information maîtrisé repose sur quelques principes simples et robustes :</p>
<ul style="text-align: justify;">
<li>centraliser l’authentification autant que possible autour d’un fournisseur d’identité de référence ;</li>
<li>éviter les comptes génériques lorsqu’un usage nominatif est possible ;</li>
<li>limiter les privilèges au strict nécessaire ;</li>
<li>gouverner les habilitations dans la durée ;</li>
<li>tracer les accès et les actions ;</li>
<li>distinguer clairement les rôles, les responsabilités et les périmètres d’exécution.</li>
</ul>
<p style="text-align: justify;">L’arrivée des agents IA ne remet pas en cause ces principes. En revanche, elle révèle leurs angles morts actuels et impose de faire évoluer la gouvernance comme les mécanismes techniques. Ce n’est pas l’IAM qu’il faut réinventer ; c’est son modèle d’application qu’il faut adapter à une nouvelle catégorie d’acteurs numériques, capables de prendre des initiatives et de déclencher des effets dans le SI.</p>
<p> </p>
<h3 style="text-align: justify;">Une trajectoire de sécurisation en quatre étapes</h3>
<h4>1. Recenser les cas d’usage et les agents</h4>
<p style="text-align: justify;">La première étape consiste à obtenir une visibilité exhaustive. Cela suppose d’identifier :</p>
<ul style="text-align: justify;">
<li>les agents déployés ;</li>
<li>les environnements dans lesquels ils opèrent ;</li>
<li>les outils et connecteurs qu’ils utilisent ;</li>
<li>les applications qu’ils peuvent atteindre ;</li>
<li>les comptes, identités techniques ou jetons qu’ils mobilisent ;</li>
<li>les données qu’ils peuvent lire, modifier ou transmettre.</li>
</ul>
<p style="text-align: justify;">Cette cartographie n’est pas un exercice documentaire accessoire : elle constitue la condition préalable à toute politique de contrôle d’accès cohérente. Pour la réaliser, des outils du marché émerge, comme la solution Agent 365 de Microsoft.</p>
<h4>2. Introduire un type d’identité spécifique pour les agents IA</h4>
<p style="text-align: justify;">La deuxième étape consiste à reconnaître les agents IA comme une catégorie spécifique d’identités non humaines. Ce marquage est essentiel, car il permet d’appliquer des politiques différenciées : interdiction de certaines actions, limitation à certains périmètres, exigences de validation préalable, surveillance renforcée ou restrictions conditionnelles.</p>
<p style="text-align: justify;">Cette distinction est structurante. Une application classique n’a pas le même niveau d’autonomie, ni le même profil de risque, qu’un agent IA capable de sélectionner lui-même un outil, d’enchaîner plusieurs actions ou de réagir à un contexte ambigu. L’IAM doit donc être en mesure de dire non seulement qui agit, mais aussi de quelle manière le système agit.</p>
<p style="text-align: justify;">À titre d’exemple, un utilisateur peut disposer du droit d’envoyer un courriel ou de créer un ordre de modification. Cela ne signifie pas qu’un agent puisse exécuter cette action sans garde-fou. Selon la sensibilité du processus, une politique dédiée peut imposer une validation humaine, un périmètre restreint ou une interdiction pure et simple.</p>
<h4>3. Rattacher l’authentification et la gestion des droits à un fournisseur d’identité unique et à l’utilisateur final</h4>
<p style="text-align: justify;">La troisième étape consiste à ramener l’authentification dans le giron d’un fournisseur d’identité central, afin que les droits soient gouvernés de manière homogène. L’objectif est double : éviter le recours incontrôlé à des comptes techniques sur-privilegiés, et faire en sorte que l’agent opère, autant que possible, dans la limite des habilitations de l’utilisateur à l’origine de la demande.</p>
<p style="text-align: justify;">Cela ne signifie pas que l’agent doit être transparent du point de vue de la sécurité. Au contraire, l’enjeu est de pouvoir appliquer une logique du type : « même si l’utilisateur a le droit, l’agent n’a pas nécessairement le droit de le faire seul, dans n’importe quel contexte, et sans contrôle complémentaire ».</p>
<h4>4. Mettre en place une approbation humaine avant certaines actions initiées par les agents</h4>
<p style="text-align: justify;">La sécurisation des agents IA ne peut pas reposer exclusivement sur l’authentification et l’autorisation. Elle suppose aussi de définir le niveau d’autonomie acceptable selon la criticité des actions concernées.</p>
<p style="text-align: justify;">Trois modèles sont classiquement distingués.</p>
<p style="text-align: justify;"><strong>Human-in-the-loop</strong></p>
<p style="text-align: justify;">C’est le mode le plus protecteur. L’agent prépare l’action, mais son exécution reste conditionnée à une validation explicite. Ce schéma doit être privilégié pour les opérations sensibles : mouvement financier, modification de droits, envoi externe engageant l’entreprise, accès à des données sensibles, action à effet irréversible, etc.</p>
<p style="text-align: justify;">Son intérêt est majeur : la validation finale est portée par une interface de contrôle indépendante du raisonnement de l’agent. Même si le modèle a été influencé, manipulé ou simplement trompé, l’utilisateur ou l’opérateur conserve la maîtrise de la décision.</p>
<p style="text-align: justify;"><strong>Human-over-the-loop</strong></p>
<p style="text-align: justify;">Dans ce modèle, l’humain ne valide pas chaque action individuellement, mais <strong>supervise l’exécution</strong> et conserve une capacité d’interruption immédiate. Ce schéma peut convenir à des processus fréquents, encadrés et faiblement risqués, à condition que la surveillance soit réelle et que le mécanisme d’arrêt soit effectivement opérationnel.</p>
<p style="text-align: justify;"><strong>Human-out-of-the-loop</strong></p>
<p style="text-align: justify;">Ici, l’agent exécute de manière autonome, sans intervention humaine immédiate. Ce niveau d’autonomie ne devrait être envisagé que pour des usages à très faible criticité, dans des environnements strictement bornés, avec des périmètres d’action réduits, des mécanismes de contrôle compensatoires solides et une tolérance explicite au risque résiduel.</p>
<p style="text-align: justify;">Pour un RSSI, la logique est simple : plus l’impact métier, réglementaire ou sécurité est élevé, plus la boucle humaine doit être proche de l’exécution.</p>
<p> </p>
<h2 style="text-align: justify;">Une cible claire, mais encore freinée par plusieurs limites</h2>
<p> </p>
<h3 style="text-align: justify;">Obstacles fonctionnels</h3>
<p style="text-align: justify;">La cible de sécurisation peut être formulée de manière claire. Sa mise en œuvre se heurte toutefois à plusieurs obstacles majeurs d’un point de vue fonctionnel.</p>
<p style="text-align: justify;">Le premier concerne le manque de granularité des autorisations. Aujourd’hui, un utilisateur peut vouloir demander à un agent d’effectuer une action précise sur une ressource précise. Pourtant, les mécanismes disponibles imposent souvent des permissions bien plus larges que nécessaire. Traiter un courriel peut conduire à ouvrir l’accès à toute une boîte de messagerie ; planifier une réunion peut impliquer un accès étendu à l’agenda ; interagir avec un référentiel peut nécessiter des droits de lecture ou d’écriture bien au-delà du besoin exprimé. Ce décalage est particulièrement problématique dans un contexte agentique. Une IA étant par nature non déterministe dans sa manière de sélectionner et d’enchaîner ses actions, un accès trop large devient mécaniquement un risque disproportionné. Une adoption sécurisée suppose donc d’évoluer vers des mécanismes d’autorisation plus fins, contextualisés, temporaires et proportionnés à la requête réellement formulée.</p>
<p style="text-align: justify;">Le second obstacle porte sur l’authentification et la propagation de l’identité. Dans beaucoup de cas, les architectures actuelles reposent encore sur des comptes techniques, des secrets partagés ou des mécanismes d’authentification peu satisfaisants au regard d’une gouvernance IAM mature. La cible consiste au contraire à faire en sorte que chaque action soit reliée de manière explicite à (i) l’utilisateur à l’origine de la demande, et (ii) au fait qu’elle a été exécutée par un agent — ce qui implique de distinguer l’identité du demandeur et l’identité du système exécutant, tout en documentant la relation de délégation entre les deux.  En pratique, cela renvoie à des mécanismes de délégation contrôlée tels que les flux OAuth “On‑Behalf‑Of (OBO)” : l’agent (ou sa couche d’orchestration) appelle une API en portant une autorisation dérivée de l’utilisateur, mais avec des contraintes supplémentaires (portée limitée, durée réduite, contexte, politiques conditionnelles). L’objectif est de réduire la dépendance aux comptes techniques sur‑privilégiés tout en conservant une chaîne de responsabilité exploitable.  À ce stade, le marché ne propose toutefois pas encore un modèle totalement homogène et interopérable couvrant à la fois l’authentification, l’autorisation fine, la traçabilité et la gouvernance des agents à grande échelle.</p>
<p style="text-align: justify;">Dernier obstacle fondamental, la traçabilité : chaque action doit être liée de façon explicite à une chaîne de responsabilité intelligible. Sans cette capacité, il n’y a ni auditabilité robuste, ni contrôle effectif, ni gouvernance défendable devant les métiers, les auditeurs ou le régulateur. Et cela a un coût pour les SIEM&#8230;</p>
<p style="text-align: justify;"><img decoding="async" class="aligncenter size-full wp-image-29616" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR.png" alt="Chaîne de repsonsabilité des actions IA dans l'entreprise" width="1289" height="868" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR.png 1289w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR-284x191.png 284w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR-768x517.png 768w" sizes="(max-width: 1289px) 100vw, 1289px" /></p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;">Un marché encore fragmenté, qui complique la sécurisation</h3>
<p style="text-align: justify;">Du point de vue des entreprises, la difficulté n’est pas seulement technique : elle est aussi liée à la maturité du marché. Les capacités agentiques se diffusent plus vite que les standards de sécurité et de gouvernance capables de les encadrer de manière homogène. Résultat : les organisations doivent composer avec des solutions hétérogènes, dont le modèle d’identité, d’audit et de contrôle varie fortement d’un éditeur à l’autre.</p>
<h4 style="text-align: justify;">Le MCP peut-il s’imposer comme standard de marché ?</h4>
<p style="text-align: justify;">Certains éditeurs exposent leurs applications via des serveurs MCP ou des mécanismes comparables, tandis que d’autres privilégient des intégrations natives, plus fermées, au sein de leur propre écosystème. Dans les faits, il n’existe pas encore de cadre pleinement homogène couvrant de manière satisfaisante les enjeux d’authentification, d’autorisation, de traçabilité, de gouvernance et de nomenclature des capacités exposées.</p>
<p style="text-align: justify;">Deux trajectoires peuvent être envisagées :</p>
<ul style="text-align: justify;">
<li>La première serait celle d’une convergence vers un socle standardisé, permettant l’interopérabilité des agents, des outils et des plateformes. Une telle évolution faciliterait le déploiement à grande échelle, améliorerait l’expérience utilisateur et rendrait possible une gouvernance plus cohérente à l’échelle de l’entreprise.</li>
<li>La seconde serait celle d’une fragmentation durable du marché. Dans ce scénario, chaque éditeur continuerait à privilégier ses propres mécanismes, ses propres objets de sécurité et ses propres modèles d’intégration. Les conséquences seraient lourdes pour les entreprises : multiplication des angles morts, hétérogénéité des contrôles, difficulté à centraliser la supervision et impossibilité pratique d’appliquer une politique IAM homogène sur l’ensemble du périmètre agentique.</li>
</ul>
<p style="text-align: justify;">À court terme, les signaux du marché suggèrent une co‑existence : des initiatives d’interopérabilité émergent, mais les grands éditeurs conservent des logiques d’écosystèmes intégrés. Pour un RSSI, cela impose de raisonner non seulement “outil par outil”, mais aussi en termes de capacité à gouverner un portefeuille d’agents sur un périmètre multi‑éditeurs.</p>
<h4 style="text-align: justify;">Vers des registres d’agents IA</h4>
<p style="text-align: justify;">La montée en puissance des agents IA justifie l’émergence d’un nouvel objet de gouvernance : le registre d’agents. Parce qu’un agent est un système autonome capable de déclencher des actions, il ne peut plus être traité comme un simple composant applicatif invisible. Il doit être identifié, qualifié, rattaché à un propriétaire, inscrit dans un cycle de vie, évalué en fonction de son périmètre d’action et soumis à des règles spécifiques.</p>
<p style="text-align: justify;">Ce registre doit, à terme, permettre de répondre à des questions simples mais décisives :</p>
<ul style="text-align: justify;">
<li>quels agents existent dans l’organisation ;</li>
<li>qui en est responsable ;</li>
<li>dans quel environnement opèrent-ils ;</li>
<li>à quels outils et à quelles données ont-ils accès ;</li>
<li>quels mécanismes d’authentification utilisent-ils ;</li>
<li>quelles validations humaines sont exigées ;</li>
<li>quels journaux produisent-ils ;</li>
<li>quand doivent-ils être revus, requalifiés, suspendus ou retirés.</li>
</ul>
<p style="text-align: justify;">Certains fournisseurs d’identité commencent à introduire des capacités dédiées à cette nouvelle catégorie d’identités non humaines. C’est un signal important. Mais la maturité du marché reste naissante, et la gouvernance ne pourra pas être déléguée aux seuls éditeurs. Le vrai sujet est avant tout d’entreprise : définir un modèle de responsabilité, de contrôle et de sécurité adapté à l’autonomie croissante des systèmes d’IA.</p>
<p> </p>
<h2 style="text-align: justify;">Quand s&rsquo;attaquer à l&rsquo;IAM des agents IA ? Maintenant !</h2>
<p> </p>
<p style="text-align: justify;">L’essor des agents IA marque une évolution majeure dans la transformation des systèmes d’information. En passant d’une logique d’assistance à une logique d’action, ces systèmes déplacent profondément les enjeux de sécurité : il ne s’agit plus seulement de maîtriser les données qu’une IA peut consulter, mais bien les <strong>actions qu’elle est en mesure d’exécuter</strong>, les <strong>droits qu’elle mobilise</strong> et les <strong>responsabilités qu’elle engage</strong>.</p>
<p style="text-align: justify;">Dans ce contexte, l’IAM s’impose comme un levier structurant. Il constitue le socle permettant de <strong>rendre visibles les agents</strong>, de <strong>maîtriser leurs habilitations</strong>, de <strong>tracer leurs actions</strong> et de <strong>définir les conditions dans lesquelles leur autonomie peut être acceptée</strong>. Autrement dit, la sécurisation des agents IA ne pourra pas reposer sur des mesures périphériques : elle suppose une approche de gouvernance intégrée, articulant identité, contrôle d’accès, supervision et validation humaine.</p>
<p style="text-align: justify;">Pour les organisations, l’enjeu n’est pas de freiner l’adoption de l’IA agentique, mais de l’<strong>encadrer dans un modèle de confiance soutenable</strong>. Cela implique dès aujourd’hui de poser des choix structurants : cartographier les usages, intégrer les agents dans les dispositifs IAM, distinguer les identités humaines et non humaines, adapter les politiques d’autorisation, et définir des garde-fous proportionnés à la criticité des actions confiées.</p>
<p style="text-align: justify;">À mesure que les architectures se standardiseront et que les offres du marché gagneront en maturité, les entreprises les mieux préparées seront celles qui auront traité les agents IA non comme de simples assistants innovants, mais comme de <strong>nouveaux acteurs du SI</strong>, soumis aux mêmes exigences de sécurité, de traçabilité et de gouvernance que tout composant critique.</p>
<p style="text-align: justify;">La question n’est donc plus de savoir si les agents IA trouveront leur place dans l’entreprise, mais <strong>dans quelles conditions de maîtrise</strong>. Pour les RSSI, le sujet est clair : la capacité à industrialiser l’IA agentique dépendra moins de la performance des modèles que de la robustesse du cadre IAM et de gouvernance mis en place pour l’encadrer.</p>
<p style="text-align: justify;">Si, vous aussi, vous vous interrogez sur la gestion des accès des agents IA ou souhaitez approfondir la sécurisation de ces nouveaux usages, nous serions ravis d’échanger avec vous. N’hésitez pas à nous solliciter pour partager vos enjeux ou explorer ensemble des pistes adaptées à votre contexte.</p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;">
<li>Wavestone<em> &#8211; Global AI Survey 2025  &#8211; </em><a href="https://www.wavestone.com/en/insight/global-ai-survey-2025-ai-adoption/"><em>AI Adoption and Its Paradoxes: Global AI survey 2025 | Wavestone</em></a><em>)</em></li>
<li>PagerDuty (2025) <em>More than Half of Companies (51%) Already Deployed AI Agents</em>. Pager Duty, March 2025. Available at: <a href="https://www.pagerduty.com/resources/ai/learn/companies-expecting-agentic-ai-roi-2025/">2025 Agentic AI ROI Survey Results</a> (Accessed: 2 January 2026)</li>
<li>Cybernews (2025) <em>Unapproved AI Tools in the Workplace</em>. September 2025. Available at: <a href="https://cybernews.com/ai-news/ai-shadow-use-workplace-survey/">https://cybernews.com/ai-news/ai-shadow-use-workplace-survey/</a> (Accessed: 2 January 2026).</li>
</ol>
<p style="text-align: justify;"> </p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/">Sécuriser les agents IA : pourquoi l’IAM devient central</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Comment choisir votre solution de Guardrails IA?</title>
		<link>https://www.riskinsight-wavestone.com/2026/02/comment-choisir-votre-solution-de-guardrails-ia/</link>
					<comments>https://www.riskinsight-wavestone.com/2026/02/comment-choisir-votre-solution-de-guardrails-ia/#respond</comments>
		
		<dc:creator><![CDATA[Nicolas Lermusiaux]]></dc:creator>
		<pubDate>Wed, 11 Feb 2026 09:10:25 +0000</pubDate>
				<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[Ethical Hacking & Incident Response]]></category>
		<category><![CDATA[Focus]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI Red Teaming]]></category>
		<category><![CDATA[AI security]]></category>
		<category><![CDATA[Critères de selection]]></category>
		<category><![CDATA[cybersécurité]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[Filtrage]]></category>
		<category><![CDATA[Garde fous IA]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[IA générative]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[prompt injection]]></category>
		<category><![CDATA[sécurité IA]]></category>
		<category><![CDATA[Solutions de filtrage]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=28971</guid>

					<description><![CDATA[<p>L’essor de l’IA générative et des modèles de langage (LLM) tels que ChatGPT a bouleversé les pratiques numériques. De plus en plus d’entreprises choisissent de déployer des applications intégrant ces modèles, mais cette intégration s’accompagne de nouvelles vulnérabilités, identifiées par...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/02/comment-choisir-votre-solution-de-guardrails-ia/">Comment choisir votre solution de Guardrails IA?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">L’essor de l’IA générative et des modèles de langage (LLM) tels que ChatGPT a bouleversé les pratiques numériques. De plus en plus d’entreprises choisissent de déployer des applications intégrant ces modèles, mais cette intégration s’accompagne de nouvelles vulnérabilités, identifiées par l’OWASP dans son LLM Top 10 2025. Face à ces risques et à de nouvelles réglementations comme l’AI Act, des solutions spécialisées, appelées <em>guardrails </em>(garde-fous en français), ont émergé pour sécuriser les interactions avec les LLM et deviennent essentielles pour garantir la conformité et la sécurité de ces applications.</p>
<p> </p>
<h2>Le défi du choix des guardrails</h2>
<p style="text-align: justify;">Du fait de la multiplication des solutions de protection pour les applications d’IA, les organisations sont confrontées à un défi: sélectionner des moyens de protection permettant de réduire efficacement les risques sans compromettre l’expérience utilisateur ou la gestion de l’application.</p>
<p style="text-align: justify;">La sélection des <em>guardrails</em> ne se limite pas à bloquer les prompts malveillants, elle nécessite de trouver un équilibre entre la précision de la détection, les faux positifs, la latence et la capacité à adapter le filtrage au contexte spécifique de l’application, aux sources de données et à l&rsquo;exposition aux menaces de chaque application. Dans la pratique, aucune solution unique ne répond aussi bien à tous les cas d&rsquo;utilisation, ce qui fait du choix de ces solutions une décision contextuelle et axée sur les risques.</p>
<p> </p>
<h2>Une grande diversité de solutions</h2>
<figure id="attachment_28972" aria-describedby="caption-attachment-28972" style="width: 2560px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-28972" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-scaled.png" alt="Vue d’ensemble des solutions de guardrails IA (non-exhaustive)" width="2560" height="1576" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-scaled.png 2560w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-310x191.png 310w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-63x39.png 63w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-768x473.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-1536x946.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG1-Vue-densemble-des-solutions-de-guardrails-IA-non-exhaustive-2048x1261.png 2048w" sizes="(max-width: 2560px) 100vw, 2560px" /><figcaption id="caption-attachment-28972" class="wp-caption-text"><em>Vue d’ensemble des solutions de guardrails IA (non-exhaustive)</em></figcaption></figure>
<p> </p>
<p style="text-align: justify;">En 2025, le paysage de la sécurité IA et des <em>guardrails</em> LLM a connu une consolidation importante. Les principaux fournisseurs de cybersécurité ont cherché de plus en plus à élargir leurs offres avec des protections dédiées à l&rsquo;IA générative, à l&rsquo;utilisation des modèles et aux interactions avec les agents. Plutôt que de développer ces capacités à partir de zéro, beaucoup ont choisi d&rsquo;acquérir des start-ups spécialisées afin d&rsquo;intégrer rapidement des fonctionnalités de sécurité IA dans leurs plateformes existantes, comme SentinelOne avec Prompt Security ou CheckPoint avec Lakera.</p>
<p style="text-align: justify;">Cette tendance illustre une évolution plus large du marché de la cybersécurité: les protections pour les applications basées sur le LLM deviennent une composante standard des offres de sécurité des entreprises, au même titre que les contrôles plus traditionnels. Les <em>guardrails</em> et les protections IA en temps réel ne sont plus des solutions de niche, mais sont progressivement intégrés dans les piles de sécurité classiques afin de soutenir l&rsquo;adoption de l&rsquo;IA à l&rsquo;échelle des entreprises.</p>
<p> </p>
<h2>Critères de comparaison</h2>
<p style="text-align: justify;">Devant une telle diversité de solutions de filtrage IA, choisir la meilleure option devient un défi important. Les principaux critères devant être retenus sont :</p>
<ul>
<li style="text-align: justify;">L’<strong>efficacité du filtrage</strong>, pour réduire l’exposition de l’application aux prompts malveillants tout en limitant les faux positifs.</li>
<li style="text-align: justify;">La<strong> latence</strong>, pour préserver l’expérience utilisateur.</li>
<li style="text-align: justify;">La <strong>capacité de personnalisation</strong>, pour adapter les filtres au contexte et aux risques spécifiques de l’application.</li>
<li style="text-align: justify;">Le <strong>coût opérationnel</strong> de la solution, pour s’assurer de la viabilité du passage à l’échelle dans le temps.</li>
</ul>
<p> </p>
<h2>Résultats principaux et profils observés</h2>
<p style="text-align: justify;">Pour avoir une idée des performances des <em>guardrails</em> sur le marché, nous avons testé plusieurs solutions selon ces critères et plusieurs types de profils se sont démarqués :</p>
<ul>
<li style="text-align: justify;">Certaines solutions offrent un déploiement rapide et une protection de base efficace avec une configuration minimale, ce qui les rend adaptées aux organisations qui cherchent à obtenir une première réduction rapide des risques. Ces solutions fonctionnent généralement bien dès leur installation, mais offrent des possibilités de personnalisation limitées.</li>
<li style="text-align: justify;">D&rsquo;autres solutions mettent l&rsquo;accent sur la flexibilité et le contrôle précis. Bien que ces frameworks permettent des stratégies de filtrage avancées, ils affichent souvent des performances par défaut médiocres et nécessitent un effort de configuration important pour atteindre de bons niveaux de protection.</li>
</ul>
<p style="text-align: justify;">Par conséquent, le choix d&rsquo;une solution de <em>guardrails</em> dépend moins des scores de détection bruts que du niveau de personnalisation attendu, de la maturité opérationnelle et de l&rsquo;effort de configuration acceptable.</p>
<p> </p>
<h2>Focus sur les guardrails proprosés par les Cloud Providers</h2>
<p style="text-align: justify;">Étant donné que la plupart des applications intégrant des LLMs sont déployées dans des environnements cloud, les <em>guardrails</em> natifs proposés par les fournisseurs cloud constituent une première couche de protection pragmatique. Ces solutions sont faciles à implémenter, rentables et s&rsquo;intègrent facilement aux workflows cloud existants.</p>
<p style="text-align: justify;">À l&rsquo;aide d’outils automatiques spécialisés dans les tests de sécurité pour les applications d’IA (« AI Red Teaming »), nous avons observé que les filtres natifs proposés par les fournisseurs cloud bloquaient systématiquement la plupart des tentatives de <em>prompt injection</em> et de <em>jailbreak</em>. Et peu de différences de performances ont été observées, ce qui confirme leur pertinence en tant que mécanismes de protection de base pour les charges de travail de production.</p>
<p> </p>
<h3>Configuration de la sensibilité de filtrage</h3>
<p style="text-align: justify;">La configuration de plusieurs solutions de fournisseurs de services cloud permettent de définir un niveau de sensibilité pour les <em>guardrails</em> configurés afin d&rsquo;adapter la détection au niveau requis pour le cas d’usage considéré.</p>
<figure id="attachment_28974" aria-describedby="caption-attachment-28974" style="width: 911px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-28974" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG2-Configuration-des-guardrails-dans-AWS-Bedrock.png" alt="Configuration des guardrails dans AWS Bedrock" width="911" height="343" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG2-Configuration-des-guardrails-dans-AWS-Bedrock.png 911w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG2-Configuration-des-guardrails-dans-AWS-Bedrock-437x165.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG2-Configuration-des-guardrails-dans-AWS-Bedrock-71x27.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG2-Configuration-des-guardrails-dans-AWS-Bedrock-768x289.png 768w" sizes="auto, (max-width: 911px) 100vw, 911px" /><figcaption id="caption-attachment-28974" class="wp-caption-text"><em>Configuration des guardrails dans AWS Bedrock</em></figcaption></figure>
<p style="text-align: justify;">Nos tests montrent que même les configurations les plus permissives offrent une protection significative, tandis que les paramètres de sensibilité plus élevés, doivent être réservés aux cas d&rsquo;usage critiques où la sécurité prime sur l’expérience utilisateur, puisque l&rsquo;augmentation de la sensibilité de détection entraîne également davantage de faux positifs, où les messages légitimes des utilisateurs peuvent être bloqués. Le besoin d’arbitrage lié à cette première capacité de personnalisation des filtres illustre le besoin d’adapter chaque filtre au contexte de l’application.</p>
<p> </p>
<h3>Personnalisation</h3>
<p style="text-align: justify;">Au-delà du réglage de la sensibilité, une personnalisation fine est essentielle pour garantir l&rsquo;efficacité des protections. Chaque application a des exigences spécifiques en matière de filtrage, qui dépendent du contexte de l’organisation, des contraintes réglementaires et de l&rsquo;exposition aux menaces.</p>
<p style="text-align: justify;">L’adaptation des filtres est requise à plusieurs niveaux:</p>
<ul style="text-align: justify;">
<li>Le <strong>contexte de l’organisation</strong>: afin de bloquer des sujets spécifiques à l’application, tels que des entreprises concurrentes, des projets confidentiels ou des informations sensibles.</li>
<li>La <strong>réduction des risques</strong>: pour permettre aux filtres de bloquer les attaques à fort impact telles que les <em>prompt injections</em></li>
<li>Les <strong>spécificités techniques de l’application</strong>, puisque chaque source de données et chaque outil demande une stratégie de filtrage différente. En effet, les entrées utilisateurs, extraits de documents récupérés (RAG) et résultats d’outils ne doivent pas être filtrés de la même manière.</li>
</ul>
<p style="text-align: justify;">L&rsquo;application d&rsquo;un filtrage uniforme à toutes les sources limite considérablement l&rsquo;efficacité et peut créer des angles morts. Les garde-fous doivent donc être conçus comme faisant partie intégrante de l&rsquo;architecture de l&rsquo;application, et non comme un filtre monolithique unique.</p>
<figure id="attachment_28977" aria-describedby="caption-attachment-28977" style="width: 1675px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-28977" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG3-Guardrails-position-in-your-applications-infrastructure.png" alt="Position des guardrails dans l’architecture de l’application" width="1675" height="735" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG3-Guardrails-position-in-your-applications-infrastructure.png 1675w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG3-Guardrails-position-in-your-applications-infrastructure-435x191.png 435w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG3-Guardrails-position-in-your-applications-infrastructure-71x31.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG3-Guardrails-position-in-your-applications-infrastructure-768x337.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/02/IMG3-Guardrails-position-in-your-applications-infrastructure-1536x674.png 1536w" sizes="auto, (max-width: 1675px) 100vw, 1675px" /><figcaption id="caption-attachment-28977" class="wp-caption-text"><em>Position des guardrails dans l’architecture de l’application</em></figcaption></figure>
<p> </p>
<h3>Principaux constats</h3>
<p style="text-align: justify;">Notre étude met en évidence plusieurs points clés :</p>
<ul style="text-align: justify;">
<li>Il n&rsquo;existe pas de solution de <em>guardrails</em> unique adaptée à tous les cas d’usages, il faut trouver un compromis entre facilité de déploiement, performances et personnalisation.</li>
<li>Les <em>guardrails</em> natifs du cloud constituent une base efficace et peu contraignante pour la plupart des applications hébergées dans le cloud.</li>
<li>Les cas d’usages avancés nécessitent d&rsquo;adapter la logique de filtrage au contexte de l&rsquo;application et aux flux de données.</li>
</ul>
<p style="text-align: justify;">Les garde-fous doivent être sélectionnés en fonction de l&rsquo;exposition au risque, de la maturité opérationnelle et de la maintenabilité à long terme, plutôt que sur la base des seuls scores de détection bruts.</p>
<h2> </h2>
<p>Les <em>guardrails</em> sont devenus un élément indispensable des applications intégrant des LLM, et il existe désormais un large éventail de solutions. Pour choisir la plus adaptée à votre contexte, il faut identifier la solution qui correspond le mieux aux risques, aux contraintes et à l&rsquo;architecture applicative spécifiques de votre application.</p>
<ul>
<li>Si votre application est déjà déployée dans un environnement cloud, l&rsquo;utilisation des <em>guardrails</em> fournis par le fournisseur de cloud est une bonne solution.</li>
<li>Si vous souhaitez plus de contrôle sur la solution de filtrage, le déploiement d&rsquo;une des solutions open source peut être l&rsquo;option la plus appropriée.</li>
<li>Si vous voulez ce qu&rsquo;il y a de mieux et que vous en avez les moyens, vous pouvez lancer un RFP ou RFI afin de comparer différentes solutions et sélectionner celle qui correspond le mieux à vos besoins.</li>
</ul>
<p>Enfin, les garde-fous ne suffisent pas à eux seuls à protéger vos applications. La sécurité des applications LLM repose également sur des outils correctement configurés, des politiques IAM strictes et une architecture de sécurité robuste afin d&rsquo;éviter des scénarios d&rsquo;exploitation plus graves.</p>
<p> </p>


<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/02/comment-choisir-votre-solution-de-guardrails-ia/">Comment choisir votre solution de Guardrails IA?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2026/02/comment-choisir-votre-solution-de-guardrails-ia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Red Teaming IA : État des lieux des risques IA en 2025  </title>
		<link>https://www.riskinsight-wavestone.com/2025/04/red-teaming-ia-etat-des-lieux-des-risques-ia-en-2025/</link>
					<comments>https://www.riskinsight-wavestone.com/2025/04/red-teaming-ia-etat-des-lieux-des-risques-ia-en-2025/#respond</comments>
		
		<dc:creator><![CDATA[Pierre Aubret]]></dc:creator>
		<pubDate>Tue, 15 Apr 2025 12:08:25 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[cybersecurity]]></category>
		<category><![CDATA[genai]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[IA Generative]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[MLOps]]></category>
		<category><![CDATA[red team]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=25788</guid>

					<description><![CDATA[<p>Les systèmes d’IA génératives sont faillibles : en mars 2025, une faille de ChatGPT a été exploitée très largement pour piéger ses utilisateurs ; quelques mois plus tôt, c’est un chatbot santé de Microsoft qui exposait des données sensibles ;...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2025/04/red-teaming-ia-etat-des-lieux-des-risques-ia-en-2025/">Red Teaming IA : État des lieux des risques IA en 2025  </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Les systèmes d’IA génératives sont faillibles : en mars 2025, une faille de ChatGPT a été exploitée très largement pour piéger ses utilisateurs ; quelques mois plus tôt, c’est un chatbot santé de Microsoft qui exposait des données sensibles ; en décembre, une simple injection de prompt permettait de prendre le contrôle d’un compte utilisateur sur le service concurrent DeepSeek.</p>
<p style="text-align: justify;">Aujourd’hui, les impacts sont limités car la latitude donnée au système d’IA est encore faible. Demain, avec l’essor de l’IA agentique, l’accélération de l’adoption de l’IA générative et la multiplication des usages, les impacts augmenteront. A l’instar des failles exploitées massivement par le rançongiciel WannaCry en 2017, des attaques cyber majeures auront certainement lieu sur les systèmes d’IA et pourraient se traduire par des blessés ou des faillites financières.</p>
<p style="text-align: justify;">Ces risques, ils s’anticipent. Un des moyens les plus pragmatiques d’y arriver, c’est d’endosser le rôle d’une personne malveillante en tentant de détourner un système d’IA pour étudier sa robustesse. Cela permet de mettre en lumière les failles du système et la façon de les corriger. Spécifiquement dans le cas de l’IA générative, cette discipline est appelée <em>RedTeaming</em> IA. Dans cet article, nous vous proposons d’en découvrir les contours. Nous insisterons particulièrement sur nos retours terrains concernant les principales vulnérabilités rencontrées.</p>
<p style="text-align: justify;"><em>Afin d’être au plus proche de ce qui se fait sur le marché, l’article se concentre exclusivement sur le RedTeaming de systèmes d’IA générative.</em></p>
<p style="text-align: justify;"><em> </em></p>
<h2 style="text-align: justify;">La GenAI, comment ça marche ?</h2>
<p> </p>
<p style="text-align: justify;">La GenAI s’appuie sur des composants qui sont souvent distribués entre des environnements <em>cloud</em> et <em>on-premise</em>. Généralement, plus un système d’IA générative offre de fonctionnalités (rechercher des informations, lancer des actions, exécuter du code, etc.), plus les composants sont nombreux. D’un point de vue cybersécurité, cela expose à de multiples risques :</p>
<p><img loading="lazy" decoding="async" class="aligncenter wp-image-25838 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/Riskinsight.png" alt="" width="1732" height="936" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/Riskinsight.png 1732w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/Riskinsight-353x191.png 353w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/Riskinsight-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/Riskinsight-768x415.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/Riskinsight-1536x830.png 1536w" sizes="auto, (max-width: 1732px) 100vw, 1732px" /></p>
<p style="text-align: center;"><em> Schéma d&rsquo;un système d&rsquo;IA générative et des problématiques soulevées par composant</em></p>
<p> </p>
<p style="text-align: justify;">En règle générale, un attaquant n’a uniquement accès qu’à une interface Web sur laquelle il peut interagir (cliquer, écrire du texte sur des champs, &#8230;). A partir de là, il peut :</p>
<ul>
<li>Mener des attaques de cybersécurité classiques (insertion de script malveillant – XSS, etc.) en s’appuyant sur les failles des composants du système d’IA ;</li>
<li>Mener des attaques d’un genre nouveau, en écrivant en langage naturel pour détourner les fonctionnalités offertes par le système d’IA générative derrière l’interface Web : exfiltration de données, réalisation d’actions malveillantes à l’aide des privilèges du système d’IA générative, etc.</li>
</ul>
<p style="text-align: justify;">Techniquement, chacun des composants est protégé par la mise en place de mesures de sécurité définies par les processus d’Intégration de la Sécurité dans les Projets. Il est ensuite intéressant, d’évaluer en pratique le niveau de sécurité effectif lors d’un audit <em>Redteam</em> IA.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;">Le <em>RedTeaming </em>IA, l’art de trouver les failles des systèmes d’IA</h2>
<p> </p>
<p style="text-align: justify;">Les audits de <em>RedTeaming</em> IA sont similaires aux audits de sécurité classiques. Néanmoins, afin de répondre nouveaux enjeux de la GenAI, ils s’appuient sur une méthodologie, des référentiels et un outillage spécifique. En effet, lors d’un audit <em>RedTeam IA</em>, il s’agit de chercher à contourner le système d’IA générative en réalisant des attaques sur ses composants ou en écrivant des instructions malveillantes en langage naturel. Cette deuxième typologie d’attaque s’appelle le <em>prompt injection</em>, l’art de formuler des requêtes malveillantes à un système d’IA pour en détourner ses fonctionnalités.</p>
<p style="text-align: justify;">Lors d’un audit <em>RedTeam</em> IA, lors des tests d&rsquo;attaques en langage naturel (propre à l’IA), deux typologies de tests sont réalisées en parallèle :</p>
<ul>
<li>Des tests manuels. Ils permettent une phase de reconnaissance en s’appuyant sur des bibliothèques de questions malveillantes consolidées en amont.</li>
<li>Des tests outillés. Il s’agit généralement d’une IA générative qui attaque le système d’IA générative cible en générant une série de prompts malveillants et en analysant automatiquement la cohérence de la réponse du chatbot. Ils permettent de tester la robustesse du système d’IA sur un grand nombre de scénarios.</li>
</ul>
<p style="text-align: justify;">Ces tests permettent généralement d’identifier plusieurs vulnérabilités et de mettre en lumière des risques de cybersécurité souvent sous-estimés.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;">Quelles sont les vulnérabilités les plus rencontrées chez nos clients ?</h2>
<p> </p>
<p style="text-align: justify;"> Nous avons couvert trois grandes catégories de déploiement chez nos clients :</p>
<ul>
<li>Chatbot simple : ces solutions servent principalement à la redirection et au triage des demandes utilisateurs ;</li>
<li>Chatbot en RAG (<em>Retrieval-Augmented Generation</em>): ces systèmes plus sophistiqués consultent des bases documentaires internes pour enrichir leurs réponses ;</li>
<li>Chatbot agentique : ces solutions avancées peuvent interagir avec d&rsquo;autres systèmes et exécuter des actions.</li>
</ul>
<p style="text-align: justify;">La consolidation des vulnérabilités identifiées lors de nos interventions ainsi que leur criticité relative nous permettent de définir le classement suivant :</p>
<p><img loading="lazy" decoding="async" class="wp-image-25792 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/image.jpg" alt="Vulnerabilités LLM &amp; Chatbots Notre Top 6 2025" width="936" height="537" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/image.jpg 936w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/image-333x191.jpg 333w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/image-68x39.jpg 68w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/image-120x70.jpg 120w, https://www.riskinsight-wavestone.com/wp-content/uploads/2025/04/image-768x441.jpg 768w" sizes="auto, (max-width: 936px) 100vw, 936px" /></p>
<p> </p>
<h3><strong>Détournement du modèle et génération de contenu illégitime </strong></h3>
<p style="text-align: justify;">Il s’agit du contournement des garde-fous techniques mis en place dans le développement du chatbot afin de générer du contenu offensant, malveillant, ou inadapté. C’est ainsi la crédibilité et la réputation de l’entreprise qui risquent d’être impactées puisqu’elle est responsable de la production de contenu réalisée par son chatbot.</p>
<p style="text-align: justify;">À noter que le contournement des mécanismes de sécurité du modèle cible peut aller jusqu’à un débridage complet. On parle alors de <em>jailbreak</em> du modèle, ce qui le fait basculer dans un mode sans restriction. Ce dernier peut alors produire du contenu hors du cadre souhaité par l’entreprise.</p>
<h3><strong>Accès au preprompt</strong></h3>
<p style="text-align: justify;">On entend par <em>preprompt</em> l’ensemble des instructions qui alimentent le modèle et le façonne pour l‘utilisation souhaitée. Tous les modèles ont pour consigne de ne pas divulguer ce <em>preprompt</em> sous quelle que forme que ce soit.</p>
<p style="text-align: justify;">Un attaquant parvenant à accéder à ce <em>preprompt</em> voit son attaque facilitée car cela lui permet de cartographier les capacités du modèle du chatbot. Cette cartographie est notamment utile pour les systèmes complexes interfacés avec des APIs ou autres systèmes externes. De plus, l’accès à ce <em>preprompt</em> par un attaquant lui permet de visualiser la manière dont les filtres et limitations du chatbot ont été mis en place, ce qui lui permet de les contourner plus aisément.</p>
<h3><strong>Intégration web et intégration des tiers</strong></h3>
<p style="text-align: justify;">Les solutions GenAI sont souvent présentées aux utilisateurs au travers d’une interface web. Les activités de <em>RedTeaming</em> AI mettent ainsi régulièrement en lumière des problématiques classiques des applications web, notamment le cloisonnement des sessions utilisateurs ou des attaques visant à les piéger.</p>
<p style="text-align: justify;">Dans le cas de l’agentique, ces vulnérabilités peuvent également affecter des composants de tiers interconnectés au système GenAI.</p>
<h3><strong>Fuites de données sensibles</strong></h3>
<p style="text-align: justify;">Si les données alimentant la base de connaissance interne d’un chatbot RAG sont insuffisamment consolidées (sélection, gestion, anonymisation, &#8230;), les modèles sont susceptibles de révéler involontairement des informations sensibles ou confidentielles.</p>
<p style="text-align: justify;">Cette problématique est connexe aux aspects de gestion des droits, de classification de la donnée, et de durcissement des pipelines de préparation et de transit des données (MLOps).</p>
<h3><strong>Injection stockée (<em>stored injection</em>)</strong></h3>
<p style="text-align: justify;">En cas d’injection stockée, l’attaquant est en mesure d’alimenter la base de connaissance d’un modèle en y incluant des instructions malveillantes (via un document piégé). Celle-ci servant aux réponses du chatbot, tout utilisateur interagissant avec le modèle et sollicitant ledit document verra sa session compromise (fuite des données d’historique de conversation des utilisateurs, redirections malveillantes, participation à une attaque d’ingénierie sociale, …).</p>
<p style="text-align: justify;">Les documents piégés pourront être particulièrement compliqués à identifier, notamment dans le cas de bases de connaissances larges ou peu maitrisées. Cette attaque est ainsi persistante et furtive.</p>
<h3><strong>Mention honorable : parasitisme et explosion des coûts</strong></h3>
<p style="text-align: justify;">On parle de parasitisme lorsqu’un utilisateur est en mesure de débrider le chatbot afin d’utiliser pleinement les capacités du modèle, et ce gratuitement. Couplé à une absence de restriction volumétrique, un utilisateur peut réaliser un nombre prohibitif de requêtes, sans lien avec le cas d’usage initial et néanmoins facturés.</p>
<p style="text-align: justify;">De manière générale, certaines des vulnérabilités mentionnées concernent des risques relativement mineurs, dont l’impact métier pour les systèmes d’information (SI) est limité. Néanmoins, avec les avancées des technologies IA, ces vulnérabilités prennent une autre dimension, notamment dans les cas suivants :</p>
<ul>
<li>Les solutions agentiques ayant accès à des systèmes sensibles</li>
<li>Les applications RAG impliquant des données confidentielles</li>
<li>Les systèmes pour lesquels les utilisateurs ont la main sur les documents de la base de connaissance, ouvrant la porte aux injections stockées</li>
</ul>
<p style="text-align: justify;"><strong>Les systèmes GenAI testés sont débridables en très large majorité, bien que l’exercice se complexifie avec le temps. Cette incapacité persistante des modèles à mettre en place des restrictions efficaces incite l’écosystème IA à se tourner vers des briques de sécurité externes. </strong></p>
<p style="text-align: justify;"><strong> </strong></p>
<h2 style="text-align: justify;">Quelles nouvelles surfaces d&rsquo;attaque ?</h2>
<p> </p>
<p style="text-align: justify;">L’intégration croissante de l’IA dans des secteurs d’activité sensibles (santé, finance, défense, &#8230;) augmente les surfaces d’attaque des systèmes critiques, ce qui renforce le besoin de filtrage et d’anonymisation des données sensibles. Là où les applications IA étaient jusqu’à présent très cloisonnées, l’IA agentique met fin à ce cloisonnement puisqu’elle déploie une capacité d’interconnexion, ce qui ouvre la porte à de possibles propagations de menaces au sein des SI.</p>
<p style="text-align: justify;">La baisse du niveau technique requis pour créer un système d’IA, notamment au travers de l’usage des plateformes SaaS et services <em>Low/no code</em>, en facilite l’usage tant pour des utilisateurs légitimes que pour des attaquants.</p>
<p style="text-align: justify;">Enfin, la généralisation des « copilotes » directement sur les postes des collaborateurs se traduit par un usage croissant de composants de plus en plus autonomes qui agissent à la place de et avec les privilèges d’un humain, accélérant l’apparition de périmètres IA non-maitrisés ou <em>Shadow IT IA</em>.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;">Vers des systèmes de plus en plus difficiles à maitriser</h2>
<p> </p>
<p style="text-align: justify;">Bien qu’imitant l’intelligence humaine en apparence, les modèles de GenAI (LLM, pour <em>Large Langage Model</em>) ont pour fonction unique d’imiter le langage et agissent finalement bien souvent comme des systèmes d’auto-complétion textuelle hautement performants. Ces systèmes ne sont nativement pas entrainés pour raisonner et leur utilisation se heurte à un fonctionnement en « boite noire ». Il est en effet complexe d’expliquer de manière fiable leur raisonnement, ce qui se traduit régulièrement par des hallucinations dans leurs productions, ou des contresens logiques. En pratique, il est également impossible de prouver l’absence de « porte dérobées » (<em>backdoor</em>) dans ces modèles, limitant encore davantage notre confiance dans ces systèmes.</p>
<p style="text-align: justify;">L’émergence de l’IA agentique complexifie la situation. En interconnectant des systèmes au fonctionnement opaque, elle rend l’ensemble du processus de raisonnement généralement invérifiable et inexplicable. Les cas de modèle entrainant, auditant ou attaquant d’autres modèles se généralisent, ce qui induit une problématique de confiance majeure lorsqu’ils sont intégrés aux systèmes d’information des entreprises.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;">Quelles perspectives pour la suite ?</h2>
<p> </p>
<p style="text-align: justify;">Les audits de <em>RedTeaming</em> IA menés sur des systèmes d’IA générative révèlent une réalité contrastée. D’un côté, l’innovation est fulgurante, portée par des cas d’usage de plus en plus puissants et intégrés. De l’autre, les vulnérabilités identifiées démontrent que ces systèmes, souvent perçus comme intelligents, restent largement manipulables, instables et peu explicables.</p>
<p style="text-align: justify;">Ce constat s’inscrit dans un contexte plus large de démocratisation des outils IA couplée à leur autonomie croissante. L’IA agentique, en particulier, fait apparaître des chaînes d’action difficilement traçables, agissant avec des privilèges humains. Dans un tel paysage, le risque n’est plus uniquement technique : il devient aussi organisationnel et stratégique, impliquant une gouvernance et une supervision continue de ses usages.</p>
<p style="text-align: justify;">Face à ces défis, le <em>RedTeaming</em> IA s’impose comme un levier essentiel pour anticiper les déviances possibles, en adoptant le point de vue de l’attaquant pour mieux prévenir les dérives. Il s’agit de tester les limites d’un système pour concevoir des mécanismes de protection robustes, pérennes, et alignés avec les nouveaux usages. C’est à ce prix que l’IA générative pourra continuer à évoluer dans un cadre de confiance, au service des utilisateurs comme des organisations.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2025/04/red-teaming-ia-etat-des-lieux-des-risques-ia-en-2025/">Red Teaming IA : État des lieux des risques IA en 2025  </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2025/04/red-teaming-ia-etat-des-lieux-des-risques-ia-en-2025/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>IA et protection des données personnelles : de nouveaux enjeux demandant une adaptation des outils et des procédures</title>
		<link>https://www.riskinsight-wavestone.com/2024/12/ia-et-protection-des-donnees-personnelles-de-nouveaux-enjeux-demandant-une-adaptation-des-outils-et-des-procedures/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/12/ia-et-protection-des-donnees-personnelles-de-nouveaux-enjeux-demandant-une-adaptation-des-outils-et-des-procedures/#respond</comments>
		
		<dc:creator><![CDATA[Thomas Argheria]]></dc:creator>
		<pubDate>Mon, 09 Dec 2024 15:09:37 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Digital Compliance]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[PIA]]></category>
		<category><![CDATA[Privacy]]></category>
		<category><![CDATA[protection des données]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=24799</guid>

					<description><![CDATA[<p>Le déploiement massif des solutions d’intelligence artificielle au fonctionnement complexe et reposant sur de larges volumes de données dans les entreprises fait poser des risques uniques sur la protection des données personnelles. Plus que jamais, il apparait nécessaire pour les...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/12/ia-et-protection-des-donnees-personnelles-de-nouveaux-enjeux-demandant-une-adaptation-des-outils-et-des-procedures/">IA et protection des données personnelles : de nouveaux enjeux demandant une adaptation des outils et des procédures</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Le déploiement massif des solutions d’intelligence artificielle au fonctionnement complexe et reposant sur de larges volumes de données dans les entreprises fait poser des risques uniques sur la protection des données personnelles. Plus que jamais, il apparait nécessaire pour les entreprises de revoir leur outillage afin de répondre aux enjeux nouveaux associés aux solutions d’IA qui traiteraient des données personnelles. Le PIA (Privacy Impact Assessment) se propose comme un outil clé pour les DPO dans l’identification des risques liés aux traitements de données personnelles et à la mise en place de mesures de remédiation appropriées. Il constitue également un outil crucial d’aide à la décision pour répondre aux exigences réglementaires.</p>
<p style="text-align: justify;">Nous détaillerons dans cet article les impacts de l’IA sur la conformité des traitements aux grands principes réglementaires mais aussi sur la sécurité des traitements sur laquelle pèsent de nouveaux risques. Nous partagerons ensuite notre vision d’un outil de PIA adapté afin de répondre à des questionnements et enjeux remaniés par l’arrivée de l’IA dans les traitements de données personnelles.</p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><strong>L’impact de l’IA sur les principes de protection des données</strong></h3>
<p style="text-align: justify;">Bien que l’IA se développe rapidement depuis l’arrivée de l’IA générative, elle n’est pas nouvelle dans les entreprises. Les nouveautés résident dans les gains d’efficacité des solutions, dont l’offre est plus étoffée que jamais, et surtout dans la multiplication des cas d’usages qui viennent transformer nos activités et notre rapport au travail.</p>
<p style="text-align: justify;">Ces gains ne sont pas sans risques sur les libertés fondamentales et plus particulièrement sur le droit à la vie privée. <strong>En effet, les systèmes d&rsquo;IA nécessitent des quantités massives de données pour fonctionner efficacement, et ces bases de données contiennent souvent des informations personnelles</strong>. Ces larges volumes de données font par la suite l’objet de multiples calculs, analyses et transformations complexes : <strong>les données ingérées par le modèle d’IA deviennent à partir de ce moment indissociables de la solution d’IA</strong><sup>[1]</sup>. Outre cette spécificité, nous pouvons mentionner la complexité de ces solutions qui diminue la transparence et la traçabilité des actions opérées par celles-ci. Ainsi, de ces différents aspects caractéristiques de l’IA, <strong>en résulte une multitude d’impacts sur la capacité des entreprises à se conformer aux exigences réglementaires </strong>en matière de protection des données personnelles.</p>
<p> </p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24842" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Impacts-FR.jpg" alt="" width="1280" height="720" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Impacts-FR.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Impacts-FR-340x191.jpg 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Impacts-FR-69x39.jpg 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Impacts-FR-768x432.jpg 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Impacts-FR-800x450.jpg 800w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></p>
<p style="text-align: center;"><em>Figure 1 : exemples d’impacts sur les principes de protection des données.</em></p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">En complément de la Figure 1, trois principes peuvent être détaillés pour illustrer les impacts de l’IA sur la protection des données ainsi que les nouvelles difficultés auxquelles les professionnels de ce domaine seront confrontés :</p>
<ol style="text-align: justify;">
<li><strong>Transparence</strong>: Assurer la transparence devient bien plus complexe en raison de l&rsquo;opacité et de la complexité des modèles d&rsquo;IA. Les algorithmes de machine learning et de deep learning peuvent être des « boîtes noires », où il est difficile de comprendre comment les décisions sont prises. Les professionnels doivent relever le défi de rendre ces processus compréhensibles et explicables, tout en garantissant que les informations fournies aux utilisateurs et aux régulateurs soient claires et détaillées.</li>
<li><strong>Principe d’exactitude</strong>: Appliquer le principe d&rsquo;exactitude est particulièrement difficile avec l&rsquo;IA en raison des risques de biais algorithmiques. Les modèles d&rsquo;IA peuvent reproduire ou même amplifier les biais présents dans les données d&rsquo;entraînement, ce qui conduit à des décisions inexactes ou injustes. Les professionnels doivent donc non seulement s&rsquo;assurer que les données utilisées sont précises et à jour, mais aussi mettre en place des mécanismes pour détecter et corriger les biais algorithmiques.</li>
<li><strong>Durée de conservation</strong>: La gestion de la durée de conservation des données devient plus complexe avec l&rsquo;IA. L&rsquo;entraînement des modèles d&rsquo;IA avec des données crée une dépendance entre l&rsquo;algorithme et les données utilisées, rendant difficile, voire impossible, de dissocier l&rsquo;IA de ces données. Aujourd&rsquo;hui, il est pratiquement impossible de faire « oublier » à une IA des informations spécifiques, ce qui complique la conformité avec les principes de minimisation des données et de durée de conservation.</li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<h3 style="text-align: justify;"><strong>Les nouveaux risques soulevés par l’IA </strong></h3>
<p style="text-align: justify;">Outre les impacts sur les principes de conformité abordés à l’instant, l’IA produit également des effets significatifs sur la sécurité des traitements, modifiant ainsi les approches en matière de protection des données et de gestion des risques.</p>
<p style="text-align: justify;">L’utilisation de l’intelligence artificielle fait alors ressortir 3 types de risques sur la sécurité des traitements :</p>
<ul style="text-align: justify;">
<li><strong>Risques traditionnels</strong>: Comme toute technologie, l’utilisation de l’intelligence artificielle est sujette à des risques de sécurité traditionnels. Ces risques incluent, par exemple, des failles au niveau des infrastructures, des processus, des personnes et des équipements. Qu&rsquo;il s&rsquo;agisse de systèmes traditionnels ou de solutions basées sur l&rsquo;IA, les vulnérabilités en matière de sécurité des données et de gestion des accès persistent. Les erreurs humaines, les pannes matérielles, les mauvaises configurations de systèmes ou les processus insuffisamment sécurisés demeurent des préoccupations constantes, indépendamment de l&rsquo;innovation technologique.</li>
<li><strong>Risques amplifiés</strong>: L&rsquo;utilisation de l&rsquo;IA peut également exacerber des risques déjà existants. Par exemple, l’utilisation d’un grand modèle de langage, comme Copilot, pour assister dans les tâches quotidiennes peut poser des problèmes. En se connectant à toutes vos applications, le modèle d’IA centralise toutes les données en un seul point d’accès, ce qui augmente considérablement le risque de fuite de données. De la même manière, une gestion des identités et des droits des utilisateurs imparfaite aboutira à des risques accrus d’actes malveillants en présence d’une solution d’IA capable d’accéder et d’analyser avec une efficacité singulière à des documents illégitimes pour l’utilisateur.</li>
<li><strong>Risques émergents</strong>: De la même manière que pour les risques liés à la durée de conservation, il devient de plus en plus difficile de dissocier l’IA de ces données d’entrainements. Cela peut parfois rendre l’exercice de certains droits comme le droit à l’oubli bien plus difficile, entrainant un risque de non-conformité.</li>
</ul>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><strong>Un contexte réglementaire en mutation</strong></h3>
<p style="text-align: justify;">Avec la prolifération mondiale des outils basés sur l&rsquo;intelligence artificielle, divers acteurs ont intensifié leurs efforts pour se positionner dans ce domaine. Pour répondre aux préoccupations, plusieurs initiatives ont vu le jour : le <em>Partnership on AI</em> réunit des géants technologiques comme Amazon, Google, et Microsoft pour promouvoir une recherche ouverte et inclusive sur l’IA, tandis que l’ONU organise l’<em>AI for Good Global Summit</em> pour explorer l’IA au service des objectifs de développement durable. Ces initiatives ne sont que des exemples parmi de nombreuses autres initiatives visant à encadrer et guider l&rsquo;utilisation de l&rsquo;IA, assurant ainsi une approche responsable et bénéfique de cette technologie.</p>
<p> </p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24840" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Initiatives-FR.jpg" alt="" width="1267" height="615" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Initiatives-FR.jpg 1267w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Initiatives-FR-393x191.jpg 393w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Initiatives-FR-71x34.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Initiatives-FR-768x373.jpg 768w" sizes="auto, (max-width: 1267px) 100vw, 1267px" /></p>
<p style="text-align: center;"><em>Figure 2 : exemples d’initiatives liées au développement de l’IA.</em></p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;"><strong>Le changement récent et le plus impactant est l&rsquo;adoption de l&rsquo;AI Act </strong>(ou RIA, règlement européen sur l’IA), qui introduit une nouvelle <strong>exigence dans l’identification des traitements de données à caractère personnel devant bénéficier d’un soin particulier</strong> : en plus des critères classiques des lignes directrices du G29, l&rsquo;utilisation d&rsquo;une IA à haut risque nécessitera systématiquement la réalisation d&rsquo;une PIA. Pour rappel, le PIA est une évaluation qui vise à identifier, évaluer et atténuer les risques que certains traitements de données peuvent poser à la vie privée des individus, en particulier lorsqu&rsquo;ils impliquent des données sensibles ou des processus complexes​​. Ainsi, <strong>l&rsquo;utilisation d&rsquo;un système d&rsquo;IA requerra souvenant la réalisation d&rsquo;un PIA.</strong></p>
<p style="text-align: justify;">Cette nouvelle législation complète l’arsenal réglementaire européen pour encadrer les acteurs et solutions technologiques, elle vient en complément du RGPD, du Data Act, du DSA ou encore du DMA. Bien que l&rsquo;objectif principal de l&rsquo;AI Act soit de promouvoir une utilisation éthique et digne de confiance de l&rsquo;IA, elle<strong> partage de nombreuses similitudes avec le RGPD et renforce les exigences existantes</strong>. Nous pouvons par exemple citer les exigences renforcées en matière de <strong>transparence</strong> ou bien la mise en place obligatoire d’une <strong>surveillance humaine</strong> pour les systèmes d’IA, soutenant le droit à l’intervention humaine du RGPD.</p>
<p style="text-align: justify;"><strong> </strong></p>
<h3 style="text-align: justify;"><strong>Une adaptation nécessaire des outils et méthodes </strong></h3>
<p style="text-align: justify;">Dans ce contexte évolutif où l’IA et les réglementations continuent de se développer, la veille réglementaire et l’adaptation des pratiques par les différents acteurs sont essentielles. Cette étape est cruciale pour comprendre et s’adapter aux nouveaux risques liés à l’utilisation de l’IA<strong>, en intégrant ces évolutions efficacement au sein de vos projets d’IA</strong>.        </p>
<p style="text-align: justify;">Afin d’adresser les nouveaux risques induits par l’utilisation de l’IA, il devient nécessaire d&rsquo;<strong>adapter nos outils, méthodes et pratiques afin de répondre efficacement à ces défis</strong>. De nombreux changements doivent être pris en compte, tels que :</p>
<ul style="text-align: justify;">
<li>l&rsquo;amélioration des processus d&rsquo;exercice des droits ;</li>
<li>l&rsquo;intégration d&rsquo;une méthodologie Privacy By Design adaptée :</li>
<li>la mise à niveau des mentions d&rsquo;information fournis aux utilisateurs ;</li>
<li>ou encore l&rsquo;évolution des méthodologies de PIA.</li>
</ul>
<p style="text-align: justify;">Nous illustrerons dans la suite de cet article ce dernier besoin en matière de PIA à l’aide du <strong>nouvel outil interne PIA² conçu par Wavestone</strong> et né de la jonction de <strong>ses expertises Privacy et en intelligence artificielle</strong>, et qui a été <strong>alimenté par de nombreux retours terrain</strong>. Son objectif est de garantir une gestion optimale des risques pour les droits et libertés des personnes liés à l’utilisation de l’intelligence artificielle en offrant un outil méthodologique capable d’identifier finement les risques sur ces-derniers.</p>
<p style="text-align: justify;"><strong> </strong></p>
<h3 style="text-align: justify;"><strong>Un nouvel outil de PIA au service d’une meilleure maîtrise des risques Privacy issus de l’IA</strong></h3>
<p style="text-align: justify;">La réalisation d’un PIA sur des projets d’IA exige une expertise plus pointue que celle requise pour un projet classique, avec des questionnements multiples et complexes liés aux spécificités des systèmes d’IA. Outre ces points de contrôles et questionnements qui s’ajoutent à l’outil, <strong>c’est toute la méthodologie de déclinaison du PIA qui se trouve adaptée au sein du PIA² de Wavestone.</strong></p>
<p style="text-align: justify;">A titre d’illustration, <strong>les ateliers avec les parties prenantes s’élargissent à de nouveaux acteurs</strong> tels que les data scientists, des experts en IA, des responsables éthiques ou les fournisseurs de solutions d’IA. Mécaniquement, la complexité des traitements de données reposant sur des solutions d’IA requière donc davantage d’ateliers et un temps de mise en œuvre plus important pour cerner finement et pragmatiquement les enjeux de protection des données de vos traitements.</p>
<p> </p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24838" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Stages-FR.jpg" alt="" width="1104" height="569" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Stages-FR.jpg 1104w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Stages-FR-371x191.jpg 371w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Stages-FR-71x37.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/12/Stages-FR-768x396.jpg 768w" sizes="auto, (max-width: 1104px) 100vw, 1104px" /></p>
<p style="text-align: center;"><em>Figure 3 : représentation des différentes étapes du PIA².</em></p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Le PIA² renforce et complète la méthodologie de PIA traditionnelle. L’outil conçu par Wavestone est ainsi constitué de 3 étapes centrales :</p>
<ol style="text-align: justify;">
<li><strong>Analyse préliminaire du traitement</strong></li>
</ol>
<p style="text-align: justify;">Dans la mesure où l’IA revêt des risques pouvant être significatifs pour les personnes et dans un contexte où l’AI Act vient exiger la réalisation d’un PIA pour les solutions d’IA à haut risque traitant de données à caractère personnel, <strong>le premier questionnement d’un DPO est d’identifier son besoin ou non de réaliser une telle analyse</strong>. L’outil PIA² de Wavestone s’ouvre donc sur une analyse des critères traditionnels du G29 venant requérir la mise en œuvre d’un PIA et est ensuite complétée de questionnements associés à l’identification du niveau de risque de l’IA. L’analyse se complète classiquement d’une étude générale du traitement. Cette étude complétée de<strong> points de connaissance précis sur la solution d&rsquo;IA</strong>, de son fonctionnement et de son cas d’usage, servant de fondation à l’ensemble du projet (notons que l’AI Act vient également exiger que de telles informations soient présentes dans le PIA portant sur des IA à haut risque). A l’issue de cette étude, le DPO dispose d’une <strong>vue d’ensemble des données personnelles traitées</strong>, de la manière dont les données personnelles circulent au sein du système et des différentes parties prenantes.</p>
<ol style="text-align: justify;" start="2">
<li><strong>Evaluation de la protection des données</strong></li>
</ol>
<p style="text-align: justify;">L’évaluation de conformité permet ensuite d’examiner la conformité de l’organisation vis-à-vis des réglementations applicables en matière de protection des données. L’objectif est d’examiner en profondeur toutes les pratiques mises en place par rapport aux exigences légales, tout en identifiant les lacunes à combler. Cette évaluation se concentre sur les mesures techniques et organisationnelles adoptées pour se conformer aux réglementations et sécuriser les données personnelles au sein d’un système d’IA. Cette partie de l’outil a été spécialement développée pour répondre aux nouveaux enjeux et défis de l’IA en termes de conformité et de sécurisation, prenant en compte les nouvelles contraintes et normes imposées aux systèmes d’IA. Cette évaluation comporte à la fois des<strong> points de contrôle classiques d’un PIA et issues du RGPD </strong>et se complète des<strong> questionnements spécifiques associés à l’IA </strong>qui ont profité des retours terrains observés par nos experts en IA.</p>
<ol style="text-align: justify;" start="3">
<li><strong>Remédiation des risques</strong></li>
</ol>
<p style="text-align: justify;">Après avoir recensé l’état de la conformité du projet et identifié les lacunes présentes, <strong>il est possible d’évaluer les impacts potentiels sur les droits et libertés des personnes concernées par le traitement. </strong>Une étude approfondie de l’impact de l’IA sur les différents éléments de conformité et de sécurité a été effectuée pour nourrir cet outil de PIA². Cette approche opérée par Wavestone, si elle est optionnelle, nous a permis de gagner en facilité de réalisation du PIA en permettant une <strong>automatisation de notre outil PIA² qui propose automatiquement des risques spécifiques liés à l’utilisation de l’IA au sein du traitement, </strong>en fonction des réponses remplies en parties 1 et 2. Les risques étant identifiés, il convient ensuite de réaliser leur traditionnelle cotation en évaluant leur vraisemblance et leurs impacts.</p>
<p style="text-align: justify;">Toujours dans cette optique d’automatisation, l’outil PIA de Wavestone identifie et propose également automatiquement des mesures correctives adaptées aux risques détectés. Quelques exemples : des solutions comme le <a href="https://www.riskinsight-wavestone.com/2024/03/securiser-lia-les-nouveaux-enjeux-de-cybersecurite/"><strong>Federated Learning</strong></a>, le <strong>chiffrement homomorphique</strong> (qui permet de traiter des données chiffrées sans les déchiffrer) et la <strong>mise en place de filtres</strong> sur les entrées et sorties peuvent être suggérées pour atténuer les risques identifiés. Ces mesures permettent de renforcer la sécurité et la conformité des systèmes d&rsquo;IA, assurant ainsi une meilleure protection des droits et libertés des personnes concernées.</p>
<p style="text-align: justify;">Une fois ces trois grandes étapes franchies, il sera nécessaire de faire valider les résultats et de mettre en œuvre des actions concrètes pour garantir la conformité et les risques liés à l’IA.</p>
<p> </p>
<p style="text-align: justify;">Ainsi, lorsqu’un traitement implique de l’IA, la réduction des risques devient encore plus complexe. Une veille constante sur le sujet et l&rsquo;accompagnement d&rsquo;experts dans le domaine deviennent indispensables. <strong>À l&rsquo;heure actuelle, de nombreuses inconnues subsistent</strong>, comme en témoigne la posture de certains organismes encore en phase d&rsquo;étude ou des positions des régulateurs qui restent à préciser.</p>
<p style="text-align: justify;">Pour mieux appréhender et gérer ces défis, il devient alors essentiel d’adopter une approche collaborative entre différentes expertises. Chez Wavestone, nos expertises en intelligence artificielle et en protection des données ont dû coopérer étroitement pour cerner et répondre à ces enjeux majeurs. <strong>Nos travaux d’analyse des solutions d’IA, des nouvelles réglementations afférentes et des risques en matière de protection des données ont nettement mis en lumière l’importance pour les DPO de bénéficier d’une expertise toujours plus pluridisciplinaire. </strong></p>
<p style="text-align: justify;"> </p>
<h4 style="text-align: justify;"><strong>Remerciements</strong></h4>
<p style="text-align: justify;"><strong> </strong>Nous remercions Gaëtan FERNANDES pour son travail dans la rédaction de cet article.</p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><strong>Notes</strong></h3>
<p style="text-align: justify;">[1] : Bien que des expérimentations ambitionnent d’offrir une forme de réversibilité et la possibilité de retirer les données de l’IA, comme le désapprentissage machine, ces techniques restent encore assez peu fiables aujourd&rsquo;hui.</p>
<p style="text-align: justify;"> </p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/12/ia-et-protection-des-donnees-personnelles-de-nouveaux-enjeux-demandant-une-adaptation-des-outils-et-des-procedures/">IA et protection des données personnelles : de nouveaux enjeux demandant une adaptation des outils et des procédures</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/12/ia-et-protection-des-donnees-personnelles-de-nouveaux-enjeux-demandant-une-adaptation-des-outils-et-des-procedures/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>L&#8217;utilisation pratique du cadre ATLAS de MITRE pour les équipes du RSSI</title>
		<link>https://www.riskinsight-wavestone.com/2024/11/lutilisation-pratique-du-cadre-atlas-de-mitre-pour-les-equipes-du-rssi/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/11/lutilisation-pratique-du-cadre-atlas-de-mitre-pour-les-equipes-du-rssi/#respond</comments>
		
		<dc:creator><![CDATA[Florian Pouchet]]></dc:creator>
		<pubDate>Wed, 27 Nov 2024 08:29:41 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[atlas]]></category>
		<category><![CDATA[ATT&CK]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[mitre]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=24687</guid>

					<description><![CDATA[<p>Avec l&#8217;essor des grands modèles de langage (LLM) et la multiplication des cas d&#8217;utilisation de l&#8217;IA dans les organisations, il est crucial de savoir comment protéger vos systèmes et applications d&#8217;IA. Cela permet non seulement de garantir la sécurité de...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/11/lutilisation-pratique-du-cadre-atlas-de-mitre-pour-les-equipes-du-rssi/">L&rsquo;utilisation pratique du cadre ATLAS de MITRE pour les équipes du RSSI</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Avec l&rsquo;essor des grands modèles de langage (LLM) et la multiplication des cas d&rsquo;utilisation de l&rsquo;IA dans les organisations, il est crucial de savoir comment protéger vos systèmes et applications d&rsquo;IA. Cela permet non seulement de garantir la sécurité de votre écosystème, mais aussi d&rsquo;en optimiser l&rsquo;utilisation au service de l&rsquo;entreprise.</p>
<p style="text-align: justify;">MITRE, connu pour son cadre ATT&amp;CK, une taxonomie largement adoptée par les centres d&rsquo;opérations de sécurité (SOC) et les équipes de renseignement sur les menaces, a développé un cadre spécifique appelé MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems). Ce cadre constitue une base de connaissances sur les tactiques et techniques employées par les adversaires ciblant les systèmes d&rsquo;intelligence artificielle. Il permet de classifier les attaques et menaces tout en offrant un outil structuré pour évaluer ces dernières de manière cohérente.</p>
<p style="text-align: justify;">Cependant, le paysage des menaces liées à l&rsquo;IA est complexe, et il n&rsquo;est pas toujours facile de déterminer les actions que les équipes doivent entreprendre pour protéger un système d&rsquo;IA. Le cadre ATLAS de MITRE identifie 56 techniques susceptibles d&rsquo;être exploitées par des adversaires, rendant l&rsquo;atténuation des risques d&rsquo;autant plus difficile en raison de la nécessité de déployer des contrôles tout au long de la chaîne d&rsquo;exécution. Les équipes devront mettre en place des contrôles ou des mesures d&rsquo;atténuation couvrant plusieurs phases, allant de la reconnaissance à l&rsquo;exfiltration, en passant par l&rsquo;évaluation de l&rsquo;impact.</p>
<p> </p>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24691" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-1.png" alt="" width="1035" height="95" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-1.png 1035w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-1-437x40.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-1-71x7.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-1-768x70.png 768w" sizes="auto, (max-width: 1035px) 100vw, 1035px" /><em>Fig. 1. Chaîne d&rsquo;exécution de MITRE ATLAS.</em></p>
<p> </p>
<p style="text-align: justify;">Cette complexité a amené bon nombre de nos clients à se poser des questions telles que : « Je suis responsable de la gestion des identités et des accès. Que dois-je savoir et, surtout, que dois-je faire au-delà de ce que je fais actuellement ?</p>
<p style="text-align: justify;">Pour répondre à ces préoccupations, nous avons analysé en détail le cadre <strong>MITRE ATLAS</strong> afin d&rsquo;identifier les types de contrôles que les différentes équipes doivent envisager pour atténuer les effets de chaque technique répertoriée. Cette analyse nous permet d’évaluer si les contrôles en place sont suffisants ou si de nouveaux contrôles doivent être développés et mis en œuvre pour sécuriser les systèmes et applications d&rsquo;IA. Nous estimons que les contrôles d’atténuation des menaces pesant sur les systèmes d’IA se répartissent comme suit : 70 % reposent sur des contrôles existants, qui peuvent être adaptés à l’IA, tandis que 30 % nécessitent le développement de nouveaux contrôles, spécifiquement conçus pour répondre aux menaces uniques liées à l’IA. </p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Pour simplifier l’articulation des besoins en matière de contrôle, nous avons défini trois catégories : </p>
<ul style="text-align: justify;">
<li><strong>Domaines verts</strong> : les contrôles existants suffisent pour couvrir certaines menaces posées par l’IA. Bien qu’il puisse y avoir des ajustements mineurs, le principe de base reste inchangé, sans besoin d’évolution majeure.</li>
<li><strong>Domaines jaunes</strong> : les contrôles en place doivent être adaptés ou ajustés pour couvrir efficacement les menaces spécifiques à l’IA.</li>
<li><strong>Domaines rouges</strong> : de nouveaux contrôles doivent être entièrement conçus et mis en œuvre pour répondre aux menaces inédites introduites par l’IA.</li>
</ul>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Ce cadre permet aux organisations de prioriser leurs efforts et de s’assurer que leurs systèmes d’IA sont protégés de manière proactive et complète. </p>
<p> </p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24693" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-2.png" alt="" width="774" height="226" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-2.png 774w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-2-437x128.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-2-71x21.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-2-768x224.png 768w" sizes="auto, (max-width: 774px) 100vw, 774px" /></p>
<p style="text-align: center;"><em>Fig. 2. Analyse RAG des contrôles d&rsquo;atténuation pour les techniques MITRE ATLAS.</em></p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><strong>Domaines verts</strong></h3>
<p style="text-align: justify;">Les <strong>domaines verts</strong> correspondent aux risques déjà couverts par les contrôles existants. Trois domaines principaux appartiennent à cette catégorie : <strong>la gestion des identités</strong> <strong>et des</strong> <strong>accès (IAM)</strong>, <strong>la sécurité des réseaux</strong> et <strong>la sécurité physique</strong>.</p>
<p>Dans le cadre de <strong>la gestion des identités et des accès (IAM)</strong>, le principe fondamental reste de garantir que seules les personnes autorisées ont accès aux ressources appropriées. Toutefois, lorsqu&rsquo;il s&rsquo;agit d&rsquo;une application d&rsquo;IA, des nuances supplémentaires doivent être prises en compte. Il est essentiel de gérer non seulement l&rsquo;accès à l&rsquo;application elle-même, en précisant qui peut l&rsquo;utiliser, accéder au code source et à l&rsquo;environnement, mais aussi l&rsquo;accès aux données utilisées pour entraîner le modèle et aux données d&rsquo;entrée nécessaires à la génération des résultats.</p>
<p>En matière <strong>de sécurité des réseaux</strong>, les mécanismes de détection et de réponse continuent de jouer un rôle clé, en signalant toute activité inhabituelle, telle que des requêtes provenant d&#8217;emplacements suspects ou l&rsquo;exfiltration de grandes quantités de données. Bien que les principes restent les mêmes, les types d&rsquo;attaques peuvent différer dans le contexte de l&rsquo;IA. Par exemple, un volume important de requêtes dans une application traditionnelle pourrait indiquer une attaque par force brute, alors que pour une application d&rsquo;IA, cela pourrait refléter une tentative de « récolte de coûts ». Cette dernière consiste à envoyer des requêtes inutiles pour augmenter les coûts d&rsquo;exécution de l&rsquo;application, une menace qui peut être atténuée en limitant le nombre de requêtes autorisées. Bien que la détection au niveau de l&rsquo;application et l&rsquo;analyse forensic des systèmes d&rsquo;IA soient plus complexes que pour des applications traditionnelles, les processus de détection au niveau réseau restent similaires. Par ailleurs, les API intégrées au modèle doivent être sécurisées afin de garantir la sécurité des interactions réseau, en particulier lorsqu&rsquo;elles concernent des applications accessibles publiquement.</p>
<p>Les contrôles de <strong>sécurité physique </strong>restent les mêmes ; il s&rsquo;agit de sécuriser les personnes qui ont un accès physique à l&rsquo;infrastructure clé.</p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><strong>Domaines jaunes</strong></h3>
<p style="text-align: justify;">Les contrôles et les mesures d&rsquo;atténuation qui relèvent des domaines jaunes suivront les mêmes principes que pour les logiciels traditionnels, mais devront être adaptés pour assurer la sécurité contre la menace posée par l&rsquo;IA. Les équipes qui entrent dans cette catégorie sont l&rsquo;<strong>éducation et la sensibilisation</strong>, la <strong>résilience</strong>, le <strong>centre d&rsquo;opérations de sécurité </strong>et le <strong>renseignement sur les menaces</strong>.</p>
<p>Pour les équipes responsables de <strong>la sensibilisation</strong> et de l’éducation, les techniques utilisées resteront les mêmes, comme les campagnes de sensibilisation ou les tests d’hameçonnage. Toutefois, il sera essentiel de mettre à jour ces initiatives pour refléter les nouvelles menaces. Par exemple, intégrer des « deepfakes » dans les simulations de tests d’hameçonnage ou inclure des formations spécifiques pour les équipes de développement sur les menaces émergentes liées à l’IA. Ces ajustements garantiront que les équipes sont préparées à détecter et à gérer les risques associés à l’utilisation de l’IA.</p>
<p>Pour les équipes chargées de <strong>la résilience</strong>, bien que les changements soient limités, des ajustements devront être apportés aux processus existants. Par exemple, si un système critique repose sur une application utilisant l’IA, les scénarios de test devront inclure des menaces spécifiques à l’IA. De plus, les conséquences potentielles d’une attaque contre un système basé sur l’IA, comme les résultats inattendus ou inappropriés d’un chatbot interactif avec des clients, devront être intégrées à la documentation relative à la gestion des crises et incidents. Les lignes directrices en matière de communication devront également être mises à jour pour anticiper et gérer ces nouveaux risques de manière proactive.</p>
<p>Dans le cas des <strong>centres d’opérations de sécurité (SOC)</strong> et des <strong>équipes de renseignement </strong>sur les menaces, les principes des contrôles restent centrés sur la collecte de renseignements sur les vulnérabilités et la surveillance des systèmes pour détecter des comportements ou des trafics inhabituels. Cependant, des ajouts spécifiques liés à l’IA seront nécessaires, comme la surveillance des informations concernant les modèles déployés en ligne ou d’autres données exploitables par les attaquants pour accéder au modèle. Cette surveillance est particulièrement critique lorsque le modèle repose sur des solutions open source, telles que ChatGPT, car cela augmente l’exposition potentielle aux menaces.</p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><strong>Domaines rouges</strong></h3>
<p style="text-align: justify;">Les <strong>domaines rouges</strong> regroupent les contrôles et techniques entièrement nouveaux qui doivent être introduits pour répondre aux nouvelles menaces liées à l’IA. Ces contrôles relèvent principalement de la compétence de l’équipe chargée de la sécurité des données et des applications. Il est important de préciser qu’il ne s’agit pas des équipes dédiées à la protection des données, qui se concentrent principalement sur des problématiques telles que le GDPR. </p>
<p style="text-align: justify;">L’équipe chargée de la sécurité des applications dispose de nombreux contrôles dans ce domaine, ce qui souligne l’importance de concevoir les applications basées sur l’IA en appliquant les principes de la sécurité dès la conception. Cependant, certains contrôles spécifiques à l’IA ne relèvent pas des équipes existantes. L’équipe responsable de ces contrôles doit être définie par chaque organisation, mais dans les entreprises les plus avancées, ces contrôles sont souvent pris en charge par un centre d’excellence en matière d’IA.</p>
<p>Les équipes chargées de la <strong>sécurité des données</strong> jouent un rôle crucial pour garantir que les ensembles de données utilisés pour l’entraînement et les entrées des modèles d’IA ne sont ni empoisonnés ni biaisés, et qu’ils restent fiables et dignes de confiance. Bien que ces contrôles puissent s’inspirer des techniques existantes, ils nécessitent des adaptations spécifiques. Par exemple, les contrôles contre l’empoisonnement des données sont étroitement liés aux mécanismes classiques de gestion de la qualité des données, mais doivent aller au-delà des pratiques standards d’assainissement ou de filtrage.</p>
<p>La qualité des données est un pilier fondamental de la sécurité des applications d’IA. Pour atteindre un niveau de sécurité élevé, il est possible d’intégrer une couche supplémentaire d’IA capable d’analyser les données d’entraînement et d’entrée afin de détecter d’éventuelles manipulations malveillantes. De plus, la tokenisation des données peut offrir un double avantage : elle réduit le risque d’exposition de données privées pendant l’apprentissage ou l’inférence d’un modèle, et elle complique la tâche des attaquants souhaitant introduire des données empoisonnées, en raison de la nature brute des données tokenisées (souvent des caractères ASCII ou Unicode). Par exemple, des algorithmes de tokenisation comme **Byte Pair Encoding (BPE)**, utilisés par OpenAI lors de l’entraînement des modèles GPT, permettent de tokeniser efficacement de grands ensembles de données. </p>
<p style="text-align: justify;">Il est important de garder à l’esprit que l’objectif ne se limite pas à sécuriser les données en tant qu’artefact, mais inclut également l’évaluation de leur contenu et la prévention de leur utilisation malveillante dans la création de résultats biaisés ou ciblés.</p>
<p style="text-align: justify;">Au-delà de la sécurisation des données en entrée, les mesures de sécurité des données doivent être intégrées tout au long du cycle de vie de l&rsquo;application, notamment lors de la conception et de la construction de l&rsquo;application, ainsi que lors du traitement des données en entrée et en sortie du modèle. </p>
<p style="text-align: justify;">Dans le cas des applications utilisant un modèle d&rsquo;apprentissage continu, les contrôles de sécurité des données doivent être maintenus en permanence pendant le fonctionnement de l&rsquo;application pour garantir la robustesse du modèle. Bien que la sécurisation des données d&rsquo;entraînement et d&rsquo;entrée constitue une base essentielle, une couche supplémentaire de sécurité peut être ajoutée en instaurant une équipe d&rsquo;experts en IA dédiée. Cette équipe testerait régulièrement le modèle en production avec des données adverses, afin d&rsquo;évaluer et de renforcer sa résilience face à des tentatives de manipulation malveillante. </p>
<p style="text-align: justify;">De plus, des garde-fous paramétriques peuvent être instaurés pour limiter le type de résultats que le modèle est autorisé à produire. Ces mesures renforcent non seulement la sécurité de l&rsquo;application, mais également la confiance dans les résultats générés par le modèle.</p>
<p>Outre les tests continus pour identifier les vulnérabilités des modèles, les équipes chargées de la sécurité des applications doivent veiller à ce que le système soit conçu selon les principes de **sécurité dès la conception**, tout en intégrant des mesures spécifiques à l’IA. Lors de la création d’une application en interne, il est essentiel que les exigences de sécurité soient appliquées à tous les composants, qu’il s’agisse de composants logiciels traditionnels, comme l’infrastructure hôte, ou de composants spécifiques à l’IA, tels que la configuration des modèles et les données d’entraînement. Si des modèles open-source sont utilisés, il est également indispensable de tester la fiabilité du code afin d’identifier d’éventuelles faiblesses de sécurité, des défauts de conception ou des écarts par rapport aux normes de codage sécurisé.</p>
<p style="text-align: justify;">Les équipes doivent également veiller à ce qu’aucune porte dérobée ne puisse être intégrée au modèle. Par exemple, un système pourrait être manipulé pour produire un résultat prédéterminé à l’aide d’un déclencheur spécifique. Ces scénarios doivent être anticipés et prévenus dès la phase de conception.</p>
<p style="text-align: justify;">Certains contrôles de sécurité des applications resteront inchangées, mais devront être adaptées au contexte de l’IA. Par exemple, la surveillance des vulnérabilités publiques devra inclure non seulement les logiciels traditionnels, mais également les modèles d’IA, en particulier s’ils reposent sur des solutions open-source.</p>
<p style="text-align: justify;">La formation des développeurs doit se poursuivre avec quelques ajustements. Les principes fondamentaux restent les mêmes : tout comme il est déconseillé de publier la version exacte d’un logiciel utilisé, les développeurs ne devraient pas divulguer les détails du modèle ou les paramètres d’entrée utilisés. Ils doivent également suivre les directives de sécurité existantes et mises à jour, comprendre les nouvelles menaces propres à l’IA, et intégrer ces connaissances dans leurs processus de développement. Ces efforts garantiront que les applications d’IA sont construites sur des bases solides et sécurisées.</p>
<p><strong>Les applications d&rsquo;IA présentent des risques inhérents</strong> qui nécessitent la mise en place de contrôles spécifiques tout au long de leur cycle de vie afin de garantir leur sécurité. Ces contrôles, souvent nouveaux, ne relèvent pas des responsabilités habituelles d&rsquo;une équipe existante. Dans les organisations les plus matures, ils sont généralement gérés par un centre d’excellence en matière d’IA. Cependant, dans certaines structures, ils sont pris en charge par l’équipe de sécurité mais exécutés par des scientifiques des données.</p>
<p>Lors de la phase de construction du modèle, des contrôles spécifiques doivent être mis en place pour garantir une conception appropriée du modèle, la sécurité du code source, l&rsquo;absence de biais dans les techniques d&rsquo;apprentissage utilisées, ainsi que la mise en place de paramètres clairs concernant les entrées et sorties du modèle. Par exemple, des techniques comme le bagging peuvent être utilisées pour renforcer la résilience du modèle. Cette méthode consiste à diviser le modèle en plusieurs sous-modèles indépendants pendant la phase d’apprentissage, le modèle principal s’appuyant ensuite sur les prédictions les plus fréquentes des sous-modèles. Si l’un des sous-modèles est compromis, les autres peuvent compenser ses failles. D&rsquo;autres techniques, comme la <strong>reconstruction des déclencheurs</strong>, peuvent également être appliquées pendant la phase de construction pour protéger contre les attaques par empoisonnement des données. La reconstruction des déclencheurs consiste à identifier des événements dans un flux de données, comme chercher une aiguille dans une botte de foin. Pour les modèles prédictifs, cette technique aide à détecter et à neutraliser les portes dérobées en analysant les résultats du modèle, son architecture et ses données d’entraînement. Les déclencheurs avancés détectent, analysent et atténuent les portes dérobées en identifiant les points sensibles potentiels dans un réseau neuronal profond. Cela inclut l’analyse des chemins de données pour repérer des prédictions inhabituelles (comme des résultats systématiquement erronés ou des temps de décision anormalement rapides), l’évaluation des activations suspectes en étudiant le comportement des données concernées, et la réaction à ces anomalies en filtrant les neurones problématiques ou en neutralisant efficacement la porte dérobée identifiée.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24695" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-3.png" alt="" width="752" height="286" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-3.png 752w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-3-437x166.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/MITRE-Figure-3-71x27.png 71w" sizes="auto, (max-width: 752px) 100vw, 752px" /></p>
<p style="text-align: center;"><em>Fig 3. Bagging, une technique de construction pour améliorer la fiabilité et la précision d&rsquo;un modèle.</em></p>
<p style="text-align: justify;"> </p>
<p>En cours d&rsquo;exécution, il est essentiel de s&rsquo;assurer que les données introduites dans le modèle sont sûres et ne sont pas empoisonnées. Pour ce faire, on peut ajouter une couche supplémentaire d&rsquo;IA qui a été formée à la détection des données malveillantes afin de filtrer et de superviser toutes les entrées de données et de détecter les attaques adverses.</p>
<p>Les équipes doivent comprendre comment le modèle s&rsquo;intègre dans l&rsquo;écosystème global de la sécurité de l&rsquo;IA à chaque étape de son cycle de vie : construction, exécution et test. Cette compréhension inclut la connaissance de la disponibilité des informations sur le modèle, l&rsquo;identification des nouvelles vulnérabilités et des menaces spécifiques à l&rsquo;IA. Ces éléments permettent aux équipes d&rsquo;appliquer les correctifs nécessaires et d&rsquo;effectuer les tests appropriés pour maintenir la sécurité du modèle. Pour les modèles d&rsquo;apprentissage continu, qui sont conçus pour s&rsquo;adapter à de nouvelles données, des tests réguliers sont indispensables. Ces tests peuvent inclure une analyse de méta-vulnérabilité, une méthode permettant de modéliser le comportement du modèle à l&rsquo;aide de spécifications formelles et de l&rsquo;évaluer en fonction de scénarios de compromission identifiés précédemment. Des techniques d&rsquo;apprentissage contradictoire, ou des approches similaires, doivent être mises en œuvre pour garantir la fiabilité et la résilience continues des modèles face à des menaces évolutives.</p>
<p> </p>
<h3 style="text-align: justify;"><strong>Conclusion</strong></h3>
<p style="text-align: justify;">Nous avons démontré que malgré les nouvelles menaces que pose l&rsquo;IA, les mesures de sécurité existantes continuent de fournir les bases d&rsquo;un écosystème sécurisé. Dans l&rsquo;ensemble de la fonction RSSI, nous constatons un équilibre entre les contrôles existants qui protégeront les applications d&rsquo;IA de la même manière qu&rsquo;ils protègent les logiciels traditionnels et les domaines qui doivent s&rsquo;adapter ou ajouter à ce qu&rsquo;ils font actuellement pour se protéger contre les nouvelles menaces.</p>
<p style="text-align: justify;">Notre analyse nous permet de conclure que pour sécuriser pleinement votre écosystème au sens large, y compris les applications d&rsquo;IA, vos contrôles seront constitués à 70 % de contrôles existants et à 30 % de nouveaux contrôles.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/11/lutilisation-pratique-du-cadre-atlas-de-mitre-pour-les-equipes-du-rssi/">L&rsquo;utilisation pratique du cadre ATLAS de MITRE pour les équipes du RSSI</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/11/lutilisation-pratique-du-cadre-atlas-de-mitre-pour-les-equipes-du-rssi/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Applications d’IA générative : risques et remédiations </title>
		<link>https://www.riskinsight-wavestone.com/2024/11/applications-dia-generative-risques-et-remediations/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/11/applications-dia-generative-risques-et-remediations/#respond</comments>
		
		<dc:creator><![CDATA[Baptiste Cianchi]]></dc:creator>
		<pubDate>Wed, 06 Nov 2024 16:22:30 +0000</pubDate>
				<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[IA générative]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Open AI]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=24465</guid>

					<description><![CDATA[<p>   Microsoft a annoncé qu’en Q2 2024 « plus de la moitié des entreprises du classement Fortune 500 utilisent Azure OpenAI ». [1] En parallèle, AWS propose Bedrock [2], concurrent direct d’Azure OpenAI.  Ce type de plateforme permet de créer des applications...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/11/applications-dia-generative-risques-et-remediations/">Applications d’IA générative : risques et remédiations </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;" aria-level="1"> </p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span><span data-contrast="auto">Microsoft a annoncé qu’en Q2 2024 </span><i><span data-contrast="auto">« plus de la moitié des entreprises du classement Fortune 500 utilisent Azure OpenAI »</span></i><span data-contrast="auto">. [<a href="https://synthedia.substack.com/p/microsoft-azure-ai-users-base-rose">1</a>] En parallèle, AWS propose Bedrock [<a href="https://www.usine-digitale.fr/article/amazon-fait-son-entree-sur-le-marche-de-l-ia-generative-avec-bedrock.N2121081">2</a>], concurrent direct d’Azure OpenAI.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Ce type de plateforme permet de créer des applications basées sur les modèles d&rsquo;IA générative comme des LLM (GTP-3.5, Mistral, etc.).</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Néanmoins, l’adoption de cette technologie n’est pas sans risque : de l’assistant virtuel qui critique son entreprise [<a href="https://www.theguardian.com/technology/2024/jan/20/dpd-ai-chatbot-swears-calls-itself-useless-and-criticises-firm">3</a>] à la fuite de donnée [<a href="https://openai.com/blog/march-20-chatgpt-outage">4</a>], les exemples ne manquent pas.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Pour soutenir les nombreux déploiements en cours, il faut donc rapidement réfléchir à sa sécurité, notamment quand des données sensibles sont utilisées. Nous vous proposons de revenir, au travers de cet article, sur les risques et remédiations liés à l’utilisation de ces plateformes.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h2 style="text-align: justify;" aria-level="2"><span data-contrast="none">Quel modèle convient à votre besoin ?</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="auto">Trois types d’IA génératives peuvent être utilisées pour créer une application. La différence s’observe dans la précision des réponses apportées : </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<ol>
<li><b><span data-contrast="auto">Simple </span></b><span data-contrast="auto">: modèle d’IA générique (GPT-4, Mistral, etc.) branché comme tel, avec une interface utilisateur. C’est un GPT interne.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="%1." data-font="" data-listid="14" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="2" data-aria-level="1"><b><span data-contrast="auto">Boosté</span></b><span data-contrast="auto"> : modèle d’IA générique qui fait levier sur les données de l’entreprise, par exemple via du RAG (</span><i><span data-contrast="auto">Retrieval Augmented Generation). </span></i><span data-contrast="auto">Ce sont les compagnons spécialisés pour un usage, RH GPT, Opération GPT, CISO GPT&#8230;).</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li><b><span data-contrast="auto">Spécialisé</span></b><span data-contrast="auto"> : le modèle d’IA réentraîné pour une utilisation particulière. Par exemple l’Inde a réentraîné Llama 3 sur ses 22 langues officielles pour en faire un traducteur spécialisé.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ol>
<p style="text-align: justify;"><span data-contrast="auto">Ces trois modes de déploiement induisent des risques. Nous vous proposons dans un premier temps de décrire les différents modes. Nous verrons ensuite les risques, puis les remédiations associées</span><span data-contrast="auto">.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<figure id="attachment_24472" aria-describedby="caption-attachment-24472" style="width: 1280px" class="wp-caption alignnone"><img loading="lazy" decoding="async" class="wp-image-24472 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/1-Risques-et-modeles.jpg" alt="" width="1280" height="720" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/1-Risques-et-modeles.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/1-Risques-et-modeles-340x191.jpg 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/1-Risques-et-modeles-69x39.jpg 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/1-Risques-et-modeles-768x432.jpg 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/1-Risques-et-modeles-800x450.jpg 800w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /><figcaption id="caption-attachment-24472" class="wp-caption-text"><em>Risques et modèles </em></figcaption></figure>
<p> </p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Modèle simple</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Ce modèle est le plus simple à déployer. Il permet aux utilisateurs d&rsquo;interagir avec les modèles d&rsquo;IA proposés par les plateformes. Il simplifie l’intégration d&rsquo;envoi de prompt et de réception des réponses dans une application.</span><span data-contrast="auto"> Il s’agit d’un ChatGPT interne, l’intérêt étant de limiter la fuite de donnée sensible insérée dans un prompt, à contrario de la version web. Aussi, dans ce cas, les échanges avec les utilisateurs ne sont pas utilisés pour réentraîner et améliorer le modèle. Vos données sont protégées. Les plateformes Cloud proposées par Azure, AWS ou GCP permettent un déploiement rapide de ces solutions.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Exemples d’utilisation : résumé de texte, assistant de développement.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24474 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/2-Fonctionnement-du-modele-simple-e1730988476563.jpg" alt="" width="1075" height="593" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/2-Fonctionnement-du-modele-simple-e1730988476563.jpg 1075w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/2-Fonctionnement-du-modele-simple-e1730988476563-346x191.jpg 346w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/2-Fonctionnement-du-modele-simple-e1730988476563-71x39.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/2-Fonctionnement-du-modele-simple-e1730988476563-768x424.jpg 768w" sizes="auto, (max-width: 1075px) 100vw, 1075px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto">Fonctionnement du modèle simple</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Modèle boosté</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Le modèle reste générique mais aura accès à des données de l’entreprise sélectionnées. L’IA pourra par exemple consulter la PSSI du groupe pour fournir la politique de mots de passes.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Exemples d’utilisation : chatbot d’entreprise, analyse de données.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:2,&quot;335551620&quot;:2}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24476 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/3-Fonctionnement-du-modele-booste-e1730988572199.jpg" alt="" width="1280" height="529" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/3-Fonctionnement-du-modele-booste-e1730988572199.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/3-Fonctionnement-du-modele-booste-e1730988572199-437x181.jpg 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/3-Fonctionnement-du-modele-booste-e1730988572199-71x29.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/3-Fonctionnement-du-modele-booste-e1730988572199-768x317.jpg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto">Fonctionnement du modèle boosté</span></i></p>
<p> </p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Modèle spécialisé</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">L’application ne repose plus sur un modèle générique (GPT-4, Mistral, etc.). En amont de son exploitation, vous devrez entraîner votre propre modèle sur les données de votre entreprise. Il pourra toujours consulter les données de l’entreprise et en aura une meilleure compréhension pour générer sa réponse.</span><span data-ccp-props="{}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Exemples d’utilisation : détection de défaut sur une ligne de production, diagnostic médical.</span><span data-ccp-props="{}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24478 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/4-Fonctionnement-du-modele-specialise-e1730988611672.jpg" alt="" width="1280" height="680" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/4-Fonctionnement-du-modele-specialise-e1730988611672.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/4-Fonctionnement-du-modele-specialise-e1730988611672-360x191.jpg 360w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/4-Fonctionnement-du-modele-specialise-e1730988611672-71x39.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/4-Fonctionnement-du-modele-specialise-e1730988611672-768x408.jpg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto"> Fonctionnement du modèle spécialisé</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h2 style="text-align: justify;" aria-level="2"><span data-contrast="none">A quels risques êtes-vous exposés ?</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="auto">Qu’importe le modèle sélectionné, il existe plusieurs risques transverses ou spécifiques. Il est important d’en tenir compte pour assurer l’intégration sécurisée de la solution.</span><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Détournement du modèle</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Les modèles d’IA sont exposés au risque de mauvaise utilisation. Imaginez un scénario où quelqu&rsquo;un utilise cette technologie pour générer du contenu nuisible. Cela peut entraîner des conséquences réelles comme la propagation de contenu toxique. L’une des attaques connues pour cet objectif est le </span><i><span data-contrast="auto">Prompt Injection </span></i><span data-contrast="auto">[<a href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/">5</a>].</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24480 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/5-Exemple-Detournement-du-modele-Prompt-Injection.jpg" alt="" width="1280" height="720" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/5-Exemple-Detournement-du-modele-Prompt-Injection.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/5-Exemple-Detournement-du-modele-Prompt-Injection-340x191.jpg 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/5-Exemple-Detournement-du-modele-Prompt-Injection-69x39.jpg 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/5-Exemple-Detournement-du-modele-Prompt-Injection-768x432.jpg 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/5-Exemple-Detournement-du-modele-Prompt-Injection-800x450.jpg 800w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto"> Exemple &#8211; Détournement du modèle (Prompt Injection)</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Hallucination</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Lorsque l’IA affirme une information qui est fausse, elle hallucine. Pensez-y comme si l&rsquo;IA « rêvassait » : si elle n’a pas la réponse, elle va « inventer » des choses pour remplir le vide. Cela peut être particulièrement problématique dans des situations où la précision est cruciale : génération de rapports, prise de décisions. Les utilisateurs pourraient propager sans le savoir ces fausses informations, ou prendre de mauvaises décisions. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24482 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/6-Exemple-Hallucination-du-modele.jpg" alt="" width="1280" height="720" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/6-Exemple-Hallucination-du-modele.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/6-Exemple-Hallucination-du-modele-340x191.jpg 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/6-Exemple-Hallucination-du-modele-69x39.jpg 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/6-Exemple-Hallucination-du-modele-768x432.jpg 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/6-Exemple-Hallucination-du-modele-800x450.jpg 800w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto"> Exemple &#8211; Hallucination du modèle</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Fuite de données</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Il existe plusieurs façons de faire fuiter la donnée. Un attaquant peut injecter un prompt malicieux pour la récupérer, un employé peut se voir attribuer plus de droits que nécessaires et accéder à des informations sensibles (exemple : compte rendu stratégique d’un comité exécutif). La sécurisation de la base de données sous-jacente doit donc être proportionnelle à la donnée stockée.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">A savoir que le modèle a accès à certaines données de l’entreprise. Si ses droits sont par exemple trop importants, il pourra consulter des données confidentielles. Ces réponses incluront donc des informations sensibles n’ayant pas vocation à être communiquées.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24484 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/7-Exemple-Fuite-de-donnees.jpg" alt="" width="1280" height="720" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/7-Exemple-Fuite-de-donnees.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/7-Exemple-Fuite-de-donnees-340x191.jpg 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/7-Exemple-Fuite-de-donnees-69x39.jpg 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/7-Exemple-Fuite-de-donnees-768x432.jpg 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/7-Exemple-Fuite-de-donnees-800x450.jpg 800w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto">Exemple &#8211; Fuite de données</span></i></p>
<p> </p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Vol du modèle</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Si le modèle est spécialisé, c’est désormais la propriété intellectuelle de votre entreprise. À ce titre, il pourrait attiser la convoitise de l’attaquant. Les données d’entraînement confidentielles peuvent par exemple être ciblées. La question de confiance en l’hébergeur Cloud peut aussi se poser : ne vaut-il pas mieux l’héberger en local ?</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24486 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/8-Exemple-–-Vol-du-modele-e1730989313927.jpg" alt="" width="1280" height="678" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/8-Exemple-–-Vol-du-modele-e1730989313927.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/8-Exemple-–-Vol-du-modele-e1730989313927-361x191.jpg 361w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/8-Exemple-–-Vol-du-modele-e1730989313927-71x39.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/8-Exemple-–-Vol-du-modele-e1730989313927-768x407.jpg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto"> Exemple – Vol du modèle</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Empoisonnement du modèle</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Sans prétendre voler le modèle, l’objectif de l’attaquant pourrait être de le rendre non fiable. Les réponses générées ne pourraient donc plus être exploitées par les équipes.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">L’empoisonnement peut se produire dans deux cas de figures : </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="-" data-font="Calibri" data-listid="21" data-list-defn-props="{&quot;335551671&quot;:0,&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Calibri&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;-&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="0" data-aria-level="1"><span data-contrast="auto">Modèle boosté : l’attaquant accèdent au RAG et modifie les informations. Alors le modèle s’appuie sur des données empoisonnées pour fournir ses réponses. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<ul style="text-align: justify;">
<li data-leveltext="-" data-font="Calibri" data-listid="21" data-list-defn-props="{&quot;335551671&quot;:0,&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Calibri&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;-&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">Modèle spécialisé : l’attaquant empoisonne les données de réentraînement du modèle. Soit directement sur la base de données qu’il met à disposition sur une plateforme publique (type Hugging face), soit en accédant à la base de données d’entraînement hébergé dans votre système d’information.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24488 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/9-Exemple-–-Empoisonnement-du-modele-e1730989571642.jpg" alt="" width="1280" height="680" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/9-Exemple-–-Empoisonnement-du-modele-e1730989571642.jpg 1280w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/9-Exemple-–-Empoisonnement-du-modele-e1730989571642-360x191.jpg 360w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/9-Exemple-–-Empoisonnement-du-modele-e1730989571642-71x39.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/9-Exemple-–-Empoisonnement-du-modele-e1730989571642-768x408.jpg 768w" sizes="auto, (max-width: 1280px) 100vw, 1280px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto">Exemple – Empoisonnement du modèle</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h2 style="text-align: justify;" aria-level="2"><span data-contrast="none">Risques principaux : quelles remédiations ?</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="auto">Parmi les 5 risques présentés, 3 prédominent dans les analyses de risques effectuées par nos équipes. Nous vous proposons d’étudier les remédiations associées.</span><span data-ccp-props="{}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Le caractère nouveau de la technologie offre l’opportunité de construire des bases de sécurité solide. Pour aboutir à une solution efficace et sécurisée, plusieurs itérations seront nécessaires.</span><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Risque #1 : Détournement du modèle</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24490 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/10-Detournement-du-modele et-sa-cle-de-remediation-e1730896057687.jpg" alt="" width="917" height="721" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/10-Detournement-du-modele et-sa-cle-de-remediation-e1730896057687.jpg 917w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/10-Detournement-du-modele et-sa-cle-de-remediation-e1730896057687-243x191.jpg 243w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/10-Detournement-du-modele et-sa-cle-de-remediation-e1730896057687-50x39.jpg 50w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/10-Detournement-du-modele et-sa-cle-de-remediation-e1730896057687-768x604.jpg 768w" sizes="auto, (max-width: 917px) 100vw, 917px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto"> Détournement du modèle : clé de remédiation</span></i></p>
<p style="text-align: justify;"><b><span data-contrast="auto">Pour faire face au détournement du modèle, nous conseillons les mesures suivantes :</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#1 – Durcir la configuration </span></b><span data-contrast="auto">suivant deux axes. Premièrement, la gestion du </span><i><span data-contrast="auto">prompt maître </span></i><span data-contrast="auto">(fenêtre de discussion avec le modèle). Certains mots clés peuvent par exemple être bannis afin d’éviter les dérives. Deuxièmement, le nombre de </span><i><span data-contrast="auto">jetons </span></i><span data-contrast="auto">et donc la taille des réponses. Un modèle moins verbeux aura moins de chance d’être détourné. D’autres paramètres peuvent être pris en compte : la température, la langue utilisée, etc.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#2 – Filtrer les réponses</span></b><span data-contrast="auto"> en appliquant par exemple un simple algorithme filtrant les réponses. Pour aller plus loin, il est envisageable de déployer des pares-feux LLM spécialisés. Cela permettra par exemple de se prévenir de potentiels abus (on parle dans ce cas-là d’</span><i><span data-contrast="auto">Abuse monitoring).</span></i><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#3 – Limiter les sources </span></b><span data-contrast="auto">auxquels le modèle à accès pour générer ses réponses. Dans l’hypothèse où l’accès aux données de l’entreprise est accordé au modèle, il est possible de le limiter uniquement à ces données. Ainsi, il ne pourra pas chercher d’autres informations sur Internet par exemple. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p> </p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Risque #2 : Hallucination</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24492 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/11-Hallucination-et-sa-cle-de-remediation-e1730896129189.jpg" alt="" width="1092" height="721" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/11-Hallucination-et-sa-cle-de-remediation-e1730896129189.jpg 1092w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/11-Hallucination-et-sa-cle-de-remediation-e1730896129189-289x191.jpg 289w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/11-Hallucination-et-sa-cle-de-remediation-e1730896129189-59x39.jpg 59w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/11-Hallucination-et-sa-cle-de-remediation-e1730896129189-768x507.jpg 768w" sizes="auto, (max-width: 1092px) 100vw, 1092px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto">Hallucination : clé de remédiation</span></i></p>
<p style="text-align: justify;"><b><span data-contrast="auto">Pour faire face aux hallucinations, nous conseillons les mesures suivantes :</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#1 – Former et sensibiliser</span></b><span data-contrast="auto"> les utilisateurs sur le fonctionnement des modèles, leurs limites et les meilleures pratiques. Cela permet aux utilisateurs d&rsquo;utiliser les Large Language Model de manière responsable et de reconnaître les utilisations abusives ou les menaces de sécurité potentielles.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#2 – Durcir la configuration </span></b><span data-contrast="auto">suivant deux axes. Premièrement, un ajustement du paramétrage incluant le réglage de la </span><i><span data-contrast="auto">température</span></i><span data-contrast="auto"> du modèle (degré de créativité du modèle) et la limitation des </span><i><span data-contrast="auto">jetons </span></i><span data-contrast="auto">(nombre de mots par questions/réponses). Deuxièmement, l’utilisation d’un modèle plus récent (GPT-4 plutôt que GPT 3.5 par exemple).</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#3 – </span></b><b><i><span data-contrast="auto">Optionnel</span></i></b><b><span data-contrast="auto"> &#8211; Ré-entrainer le modèle</span></b><span data-contrast="auto"> lui donne un contexte. La fiabilité des réponses sera donc positivement impactée. Utiliser un large éventail de données d&rsquo;entraînement peut aider à couvrir plus de scénarios et réduire les biais, ce qui aide l&rsquo;IA à mieux comprendre et générer des réponses appropriées. Il est de même important d’éliminer les erreurs et les incohérences dans les données d&rsquo;entraînement peut réduire la probabilité que l&rsquo;IA apprenne et répète ces mêmes erreurs.</span><span data-ccp-props="{}"> </span></p>
<p> </p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Risque #3 : Fuite de données</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24494 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/12-Fuite-de-donnees-et-sa-cle-de-remediation-e1730896183510.jpg" alt="" width="1090" height="721" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/12-Fuite-de-donnees-et-sa-cle-de-remediation-e1730896183510.jpg 1090w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/12-Fuite-de-donnees-et-sa-cle-de-remediation-e1730896183510-289x191.jpg 289w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/12-Fuite-de-donnees-et-sa-cle-de-remediation-e1730896183510-59x39.jpg 59w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/11/12-Fuite-de-donnees-et-sa-cle-de-remediation-e1730896183510-768x508.jpg 768w" sizes="auto, (max-width: 1090px) 100vw, 1090px" /></span></p>
<p style="text-align: center;"><i style="color: initial;"><span data-contrast="auto">Fuite de données : clé de remédiation</span></i></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">Pour faire face aux fuites de données sensibles, nous conseillons les mesures suivantes :</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#1 –</span></b> <b><span data-contrast="auto">Impliquer le délégué à la protection des données</span></b><span data-contrast="auto"> afin d’assurer la conformité aux lois et protocoles de protection des données en impliquant le Délégué à la Protection des Données (DPO) dans les projets accédant aux plateformes de Large Language Model est important pour protéger les données personnelles et sensibles. En adhérant à ces normes, les organisations protègent non seulement la vie privée individuelle mais renforcent également leur défense contre les violations de données et la mauvaise utilisation.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#2 –</span></b> <b><span data-contrast="auto">Gérer les droits et les accès</span></b><span data-contrast="auto"> sur l’ensemble des composantes interagissant avec le modèle. Comprendre quelles données quelles données peuvent être accéder par le modèle n’est pas trivial. Auditer et recertifier ces données dans le temps permet de limiter les écarts potentiels.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#3 – Réduire la verbosité du modèle </span></b><span data-contrast="auto">via la limitation du nombre de </span><i><span data-contrast="auto">jetons</span></i><span data-contrast="auto"> de sortie. Moins un modèle est verbeux, plus la probabilité qu’il partage de la donnée confidentielle par inadvertance est faible.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#4 – Anonymiser la donnée</span></b><span data-contrast="auto">, ou la rendre générique, si le cas d’usage le permet. L’IA pourra par exemple travailler sur les tendances d’une population sans qu’un nom explicite ne puisse être cité. En plus de réduire fortement le risque de fuite de donnée, cela réduira les normes auxquelles se conformer (exemple : RGPD).</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#5 – Limiter les données sensibles utilisées</span></b><span data-contrast="auto">, il faut ici réfléchir aux données nécessaires et suffisantes pour que le modèle fonctionne. Un traitement préalable de la donnée peut être effectuée pour supprimer ou modifier les données sensibles et ainsi en réduire l’exposition (exemple : anonymisation de la donnée).</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<h3 style="text-align: justify;" aria-level="3"><span data-contrast="none">Remédiations transverses</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:40,&quot;335559739&quot;:0}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Certaines mesures s’appliquent à tous les risques cités ci-dessus. Deux d’entre elles apparaissent comme fondamentales. </span><span data-ccp-props="{}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#1 – Intégrer la sécurité aux projets</span></b><span data-contrast="auto"> via, par exemple, une analyse de sécurité contextualisée. Cela permet aux organisations peuvent identifier et atténuer préventivement les vulnérabilités potentielles, assurant ainsi que seuls les projets sécurisés et vérifiés accèdent aux applications d’IA génératives. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">#2 – Documenter chaque application</span></b><span data-contrast="auto"> afin d’établir un cadre opérationnel facilitant non seulement une supervision et une gestion plus aisées, mais réduit également le risque d&rsquo;utilisation non autorisée ou malveillante. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> </span></p>
<p style="text-align: justify;" aria-level="2"> </p>
<p aria-level="2"> </p>
<p style="text-align: justify;"><span data-contrast="auto">Le développement d’applications d’IA est accéléré par les plateformes disponibles. Cependant, la sophistication qu&rsquo;il apporte n&rsquo;est pas sans risque. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Reconnaissant ces défis, la priorité est l&rsquo;établissement d&rsquo;une gouvernance robuste pour la plateforme. Cela implique une délimitation des rôles et responsabilités, assurant une approche structurée pour gérer et atténuer les risques.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">La gouvernance s&rsquo;étend au-delà de la plateforme elle-même. Sécuriser la myriade de cas d&rsquo;utilisation d’application d’IA est tout aussi important. Il s&rsquo;agit de garantir que l&rsquo;application de cette technologie d&rsquo;IA est à la fois responsable et alignée sur les normes éthiques, se prémunissant contre la mauvaise utilisation et les conséquences non intentionnelles.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Cela appelle à un modèle de responsabilité partagée, où tous les acteurs — développeurs, utilisateurs et organes de gouvernance — collaborent pour maintenir l&rsquo;intégrité et la sécurité des applications d&rsquo;IA.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p> </p>
<p> </p>
<p style="text-align: justify;" aria-level="1"><span data-contrast="none">Références</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:240,&quot;335559739&quot;:0}"> </span></p>
<ol>
<li data-leveltext="%1." data-font="" data-listid="13" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><a href="https://synthedia.substack.com/p/microsoft-azure-ai-users-base-rose"><span data-contrast="none">https://synthedia.substack.com/p/microsoft-azure-ai-users-base-rose</span></a><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li><a href="https://www.usine-digitale.fr/article/amazon-fait-son-entree-sur-le-marche-de-l-ia-generative-avec-bedrock.N2121081"><span data-contrast="none">https://www.usine-digitale.fr/article/amazon-fait-son-entree-sur-le-marche-de-l-ia-generative-avec-bedrock.N2121081</span></a><span data-contrast="auto"> </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="%1." data-font="" data-listid="13" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="3" data-aria-level="1"><a href="https://www.theguardian.com/technology/2024/jan/20/dpd-ai-chatbot-swears-calls-itself-useless-and-criticises-firm"><span data-contrast="none">https://www.theguardian.com/technology/2024/jan/20/dpd-ai-chatbot-swears-calls-itself-useless-and-criticises-firm</span></a><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li><a href="https://openai.com/blog/march-20-chatgpt-outage"><span data-contrast="none">https://openai.com/blog/march-20-chatgpt-outage</span></a><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li><a href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/"><span data-contrast="none">https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/</span></a><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ol>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/11/applications-dia-generative-risques-et-remediations/">Applications d’IA générative : risques et remédiations </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/11/applications-dia-generative-risques-et-remediations/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Adopter le MLSecOps : la clé pour des modèles d’IA fiables et sécurisés </title>
		<link>https://www.riskinsight-wavestone.com/2024/10/adopter-le-mlsecops-la-cle-pour-des-modeles-dia-fiables-et-securises/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/10/adopter-le-mlsecops-la-cle-pour-des-modeles-dia-fiables-et-securises/#respond</comments>
		
		<dc:creator><![CDATA[Pierre Aubret]]></dc:creator>
		<pubDate>Fri, 25 Oct 2024 14:58:03 +0000</pubDate>
				<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Machine learning]]></category>
		<category><![CDATA[MLOps]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=24300</guid>

					<description><![CDATA[<p>  L’intelligence artificielle (IA) occupe désormais une place centrale dans les produits et services offerts par les entreprises et les services publics, en grande partie grâce à l’essor de l’IA générative. Pour soutenir cette croissance et favoriser l’adoption de l’IA,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/10/adopter-le-mlsecops-la-cle-pour-des-modeles-dia-fiables-et-securises/">Adopter le MLSecOps : la clé pour des modèles d’IA fiables et sécurisés </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"><span data-contrast="auto">L’intelligence artificielle (IA) occupe désormais une place centrale dans les produits et services offerts par les entreprises et les services publics, en grande partie grâce à l’essor de l’IA générative. Pour soutenir cette croissance et favoriser l’adoption de l’IA, il a été nécessaire </span><b><span data-contrast="auto">d’industrialiser la conception</span></b> <b><span data-contrast="auto">des systèmes d’IA</span></b><span data-contrast="auto"> en adaptant les méthodes et procédures de développement de modèles.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">C’est ainsi qu’est né le </span><b><span data-contrast="auto">MLOps</span></b><span data-contrast="auto">, une contraction de “Machine Learning” (le cœur des systèmes d’IA) et “Operations”. À l’instar du DevOps, le MLOps facilite la réussite des projets de Machine Learning tout en assurant la production de modèles performants.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Cependant, il est crucial de garantir la sécurité des algorithmes pour qu’ils demeurent performants et fiables dans le temps. Pour ce faire, il est nécessaire de </span><b><span data-contrast="auto">faire évoluer le MLOps vers le MLSecOps</span></b><span data-contrast="auto">, en intégrant la sécurité dans les processus, à l’image du DevSecOps. </span><b><span data-contrast="auto">Peu d’entités ont adopté et déployé un processus MLSecOps complet</span></b><span data-contrast="auto">. Dans cet article, nous explorerons en détail la forme que pourrait prendre le MLSecOps.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span data-contrast="none">Le MLOps, les fondamentaux de développement de modèle d’IA</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:360,&quot;335559739&quot;:80}"> </span></h2>
<h3 style="text-align: justify;"><span data-contrast="none">Rapprochement avec le DevOps</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Le DevOps est une approche qui combine le développement logiciel (Dev) et les opérations informatiques (Ops). Son objectif est de raccourcir le cycle de vie du développement tout en assurant des livraisons continues de haute qualité. Les principes clés incluent l’automatisation des processus (développement, test et mise en production), la livraison continue (CI/CD) et des boucles de rétroaction rapides.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">MLOps, quant à lui, est une extension des principes DevOps appliqués spécifiquement aux projets de Machine Learning (ML). Les flux de travail sont simplifiés et automatisés au maximum, de la préparation des données d’entraînement à la gestion des modèles en production. Le MLOps se distingue du DevOps sur plusieurs points :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="" data-font="Symbol" data-listid="20" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Importance des données et des modèles</span></b><span data-contrast="auto"> : Dans le Machine Learning, les données et les modèles sont cruciaux. Le MLOps va plus loin en automatisant toutes les étapes du Machine Learning, de la préparation des données aux phases d’entraînement. De plus, un volume de données plus important est souvent utilisé dans les projets de Machine Learning.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="20" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Nature expérimentale du développement</span></b><span data-contrast="auto"> : Le développement en Machine Learning est expérimental et implique de tester et d’ajuster continuellement les modèles pour trouver les meilleurs algorithmes, paramètres et données pertinentes pour l’apprentissage. Cela pose des défis pour l’adaptation du DevOps au Machine Learning, car le DevOps se concentre sur l’automatisation et la stabilité des processus.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="20" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Complexité des tests et de la recette</span></b><span data-contrast="auto"> : La nature évolutive des modèles et la complexité des données rendent les phases de test et de recette plus délicates en Machine Learning. De plus, la surveillance des performances est essentielle pour garantir le bon fonctionnement des modèles en production. Ainsi, en Machine Learning, il faut adapter les procédures de Maintenance en Conditions Opérationnelles pour maintenir la stabilité et la fiabilité des systèmes.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<p style="text-align: justify;"><span data-contrast="auto">En somme, une chaîne MLOps partage des éléments communs avec une chaîne DevOps, mais introduit des étapes supplémentaires et accorde une importance particulière à la gestion et à l’utilisation des données. Le graphique suivant souligne en jaune toutes les étapes supplémentaires que le MLOps introduit :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="" data-font="Symbol" data-listid="21" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Accès et utilisation des données</span></b><span data-contrast="auto"> : Cette étape inclut toutes les phases du Data Engineering (collecte, transformation et versionnement des données utilisées pour l’entraînement). L’enjeu est d’assurer l’intégrité des données et la reproductibilité des tests.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="21" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Recette du modèle</span></b><span data-contrast="auto"> : Les recettes et les tests d’intégration en ML sont plus complexes et se déroulent sur trois couches différentes : la pipeline des données, la pipeline du modèle de ML et la pipeline applicative.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="21" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Monitoring en production</span></b><span data-contrast="auto"> : Il s’agit de garantir la performance du modèle dans le temps et d’éviter le “model drifting” (déclin de la performance dans le temps). Pour cela, toutes les déviations (changement instantané, changement graduel, changement récurrent) doivent être détectées, analysées et corrigées si nécessaire.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24309 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/1.jpg" alt="" width="980" height="501" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/1.jpg 980w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/1-374x191.jpg 374w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/1-71x36.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/1-768x393.jpg 768w" sizes="auto, (max-width: 980px) 100vw, 980px" /></span></p>
<p style="text-align: center;"><span data-ccp-props="{&quot;134245418&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span><i><span data-contrast="none">Figure </span></i><i><span data-contrast="none">1</span></i><i><span data-contrast="none"> – Adaptation des étapes du DevOps au Machine Learning</span></i><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:200,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><span data-contrast="none">Mettre en place le MLOps nécessite de créer un dialogue entre ingénieur des données et les opérateurs de DevOps</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Le passage au MLOps implique de </span><b><span data-contrast="auto">créer de nouvelles étapes organisationnelles</span></b><span data-contrast="auto"> spécifiquement adaptée à la gestion des données. Cela inclut notamment la collecte et la transformation des données d’entrainement, ainsi que les processus de suivi des différentes versions de données. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559731&quot;:360}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">En ce sens, la collaboration entre les experts en MLOps, Data Scientists et les Data Engineers est essentielle pour réussir dans ce domaine en constante évolution. L’enjeu principal d’une mise en place d’une chaine MLOps réside donc dans l’intégration des Data Engineers dans les processus DevOps. Ces derniers sont responsables de préparer les données dont les ingénieurs MLOps ont besoin pour entraîner et exécuter des modèles. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<h3>Et la sécurité dans tout ça ?<span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">L’adoption massive des IA génératives en 2024 nous a fourni une variété d’exemples de compromissions de terme de sécurité. En effet, la surface d’attaque est grande : un acteur malveillant peut à la fois </span><b><span data-contrast="auto">attaquer le modèle</span></b><span data-contrast="auto"> en lui-même (vol de modèle, reconstruction de modèle, détournement de l’usage initial) </span><b><span data-contrast="auto">mais également attaquer ses</span></b> <b><span data-contrast="auto">données</span></b><span data-contrast="auto"> (extraire des données d’entraînement, modifier le comportement en ajoutant des fausses données, etc.). Pour illustrer ces derniers, nous avons simulé deux attaques réalistes dans de précédents articles : </span><a href="https://www.riskinsight-wavestone.com/2023/06/attaquer-une-ia-un-exemple-concret/"><span data-contrast="none">Attaquer une IA ? Un exemple concret !</span></a><span data-contrast="auto"> ou </span><a href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/"><span data-contrast="none">Quand les mots deviennent des armes : prompt injection</span></a><span data-contrast="auto">.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">En parallèle, le MLOps, introduit une automatisation qui accélère la mise en production. Bien que cela puisse réduire le</span><i><span data-contrast="auto"> time to market</span></i><span data-contrast="auto"> (délais de mise sur le marché), cela augmente également les risques (attaque par supply chain, massification). Il est donc crucial de s&rsquo;assurer que les risques liés à la cybersécurité et à l&rsquo;IA sont correctement gérés.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Comme le fait le DevSecOps pour le DevOps, la chaine de production du MLOps doit être sécurisée. Voici un panorama des principaux risques sur la chaine MLOps :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24311 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/2.jpg" alt="" width="956" height="519" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/2.jpg 956w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/2-352x191.jpg 352w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/2-71x39.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/2-768x417.jpg 768w" sizes="auto, (max-width: 956px) 100vw, 956px" /></span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<h2 style="text-align: justify;"><span data-contrast="none">Adopter le MLSECOPS</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:360,&quot;335559739&quot;:80}"> </span></h2>
<h3 style="text-align: justify;"><span data-contrast="none">Intégrer la sécurité dans les équipes MLOPS et renforcer la culture sécurité</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Les principes du MLSecOps doivent être compris par les Data Scientists et les Data Engineers. Pour cela, il est crucial que les équipes de sécurité soient intégrées dès le début du projet. Cela peut se faire de deux manières :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559731&quot;:360}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="" data-font="Symbol" data-listid="22" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">Lors de la création d’un nouveau projet, un membre de l’équipe de sécurité est assigné en tant que responsable de la sécurité. Il supervise les avancées et répond aux questions des équipes du projet.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="22" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">Une approche plus agile, similaire au DevSecOps, consiste à désigner un membre de l’équipe comme “</span><b><span data-contrast="auto">Security Champion</span></b><span data-contrast="auto">”. Ce référent cybersécurité au sein de l’équipe projet devient l’interlocuteur privilégié des équipes cyber. Cette méthode permet une intégration plus réaliste de la sécurité dans le projet, mais nécessite une formation adéquate pour le Security Champion.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<p style="text-align: justify;"><span data-contrast="auto">Pour que ce changement soit efficace, il est également nécessaire de modifier la perception de la cybersécurité par les équipes projets :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="" data-font="Symbol" data-listid="23" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">En fournissant une formation de base aux équipes pour mieux comprendre les enjeux de la cybersécurité.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="23" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">En intégrant la cybersécurité dans les plateformes de collaboration et de connaissances.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="23" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">En organisant régulièrement des campagnes de sensibilisation.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<h3 style="text-align: justify;"><span data-contrast="none">Sécuriser les outils de la chaîne MLOPS</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Pour garantir la sécurité des produits, il est essentiel de sécuriser la chaîne de production. Dans le cadre du MLOps, cela signifie s’assurer que tous les outils sont correctement utilisés avec des pratiques intégrant la cybersécurité, qu’il s’agisse du </span><b><span data-contrast="auto">traitement et de la gestion des données</span></b><span data-contrast="auto"> (comme MongoDB, SQL, etc.), des </span><b><span data-contrast="auto">outils de surveillance</span></b><span data-contrast="auto"> (tel que Prometheus), ou des </span><b><span data-contrast="auto">outils de développement</span></b><span data-contrast="auto"> plus ou moins spécifiques (comme MLFlow ou GitHub).</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559731&quot;:360}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Par exemple, il est crucial que les équipes restent vigilantes sur des thématiques telles que l’identification et la gestion des identités, la continuité d’activité, la surveillance, et la gestion des données. Les possibilités offertes par les différents outils utilisés tout au long du cycle de vie, ainsi que leurs spécificités, doivent être examinées en lien avec ces enjeux. Idéalement, les caractéristiques de cybersécurité devraient servir de critères de sélection pour choisir l’outil le plus adapté.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p> </p>
<h3 style="text-align: justify;"><span data-contrast="none">Définir des pratiques en matière de sécurité de l’IA</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Au-delà de la sécurité des outils qui permettent de construire les systèmes d’IA, il convient d’intégrer des mesures de sécurité permettant de prévenir les vulnérabilités spécifiques aux systèmes d’IA. Ces mesures doivent être incorporées dès la conception et tout au long du cycle de vie de l’application, suivant une approche MLSecOps. De la collecte des données à la surveillance du système, il existe de nombreuses mesures de sécurité à intégrer :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559731&quot;:360}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24313 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/3.jpg" alt="" width="1040" height="480" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/3.jpg 1040w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/3-414x191.jpg 414w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/3-71x33.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/3-768x354.jpg 768w" sizes="auto, (max-width: 1040px) 100vw, 1040px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="none">Figure 2 &#8211; Les mesures de sécurité applicables tout au long du cycle de vie</span></i><span data-ccp-props="{}"> </span></p>
<h2 style="text-align: justify;"><span data-contrast="none">Trois mesures de sécurité à implémenter dans vos processus MLSecOps</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:360,&quot;335559739&quot;:80}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="auto">Selon la stratégie de sécurité adoptée, diverses mesures de sécurité peuvent être intégrées tout au long du cycle de vie du MLOps. Nous avons détaillé les principaux mécanismes de défenses pour sécuriser l’IA dans l’article suivant : </span><a href="https://www.riskinsight-wavestone.com/2024/03/securiser-lia-les-nouveaux-enjeux-de-cybersecurite/"><span data-contrast="none">Sécuriser l’IA : Les Nouveaux Enjeux de Cybersécurité</span></a><span data-contrast="auto">. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Dans cette partie, nous allons nous attarder sur 3 mesures spécifiques qui peuvent être mises en œuvre pour renforcer la sécurité du MLOps :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;134245418&quot;:true}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-24315 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/4.jpg" alt="" width="1079" height="520" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/4.jpg 1079w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/4-396x191.jpg 396w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/4-71x34.jpg 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/10/4-768x370.jpg 768w" sizes="auto, (max-width: 1079px) 100vw, 1079px" /></span></p>
<p style="text-align: center;"><span data-ccp-props="{}"> </span><i><span data-contrast="none">Figure </span></i><i><span data-contrast="none">3</span></i><i><span data-contrast="none"> – Mesures de sécurité sélectionnées</span></i><span data-ccp-props="{&quot;335551550&quot;:2,&quot;335551620&quot;:2}"> </span></p>
<h3 style="text-align: justify;"><span data-contrast="none">Contrôler la pertinence des données et les risques d’empoisonnement</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Dans le cadre du Machine Learning, la sécurité des données est primordiale pour prévenir les risques d&#8217;empoisonnement et garantir l&rsquo;intégrité des données traitées. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Avant de procéder au traitement des données collectées, un contrôle continu de </span><b><span data-contrast="auto">l’origine des données</span></b><span data-contrast="auto"> est essentiel afin d’en garantir leur qualité et leur pertinence. Cela est d’autant plus complexe lors de l’utilisation de flux de données externes, dont la provenance et la véracité peut parfois être incertain. Ainsi, le risque majeur réside dans </span><b><span data-contrast="auto">l&rsquo;intégration de données utilisateurs lors d’un apprentissage en continu</span></b><span data-contrast="auto">. Cela peut conduire à des résultats imprévisibles, comme illustré par l&rsquo;exemple du ChatBot TAY de Microsoft en 2016. Ce dernier, était conçu pour apprendre à travers les interactions utilisateurs. Cependant, sans une modération adéquate, il a rapidement adopté des comportements inappropriés, reflétant les entrées négatives reçues. Cet incident souligne l&rsquo;importance d&rsquo;une surveillance et d&rsquo;une modération constantes des données d&rsquo;entrée, en particulier lorsqu&rsquo;elles proviennent d&rsquo;interactions humaines en temps réel.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Diverses techniques d&rsquo;analyse peuvent être utilisées pour </span><b><span data-contrast="auto">nettoyer un ensemble de données</span></b><span data-contrast="auto">. L’objectif étant de vérifier l&rsquo;intégrité des données et de supprimer toute données pouvant avoir un impact négatif sur les performances du modèle. Deux méthodes principales sont possibles : </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="" data-font="Symbol" data-listid="19" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">D’une part, nous pouvons vérifier individuellement l’intégrité de chacune des données par contrôle des valeurs aberrantes, validation du format ou de métriques caractéristiques…</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="19" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">D’autre part, avec une analyse globale, des approches comme la validation croisée et le clustering statistique sont efficaces pour identifier et éliminer les éléments inappropriés de l’ensemble de données.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<h3 style="text-align: justify;"><span data-contrast="none">Introduire des exemples contradictoires</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Les exemples contradictoires sont des entrées corrompues, modifiées pour induire en erreur les prédictions d&rsquo;un algorithme de Machine Learning. Ces modifications sont construites pour être indétectables à l&rsquo;œil humain mais suffisantes pour tromper l&rsquo;algorithme. Ce type d’attaque exploite les vulnérabilités ou failles présentes dans l’entrainement du modèle pour provoquer des erreurs de prédiction. Pour les réduire, il est alors possible d’apprendre au modèle à identifier et ignorer ce type d’entrée.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Pour cela, nous pouvons </span><b><span data-contrast="auto">délibérément ajouter des exemples contradictoires aux données d’entraînements</span></b><span data-contrast="auto">. L’objectif est de présenter au modèle des données légèrement altérées, afin de le préparer à identifier et gérer correctement les erreurs potentielles. La création de ce type de données dégradée est complexe. La génération de ces exemples contradictoires, devra être adapté au problème et aux menaces identifiées. Il est crucial de </span><b><span data-contrast="auto">surveiller attentivement la phase d’entraînement</span></b><span data-contrast="auto"> afin de s&rsquo;assurer que le modèle reconnaît efficacement ces entrées incorrectes et sache réagir correctement. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<h3 style="text-align: justify;"><span data-contrast="none">Modifier les entrées utilisateurs</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:160,&quot;335559739&quot;:80}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">La sécurisation des entrées est essentielle pour minimiser les risques liés aux manipulations malveillantes. Une faiblesse importante des LLM (</span><i><span data-contrast="auto">Large Language Models</span></i><span data-contrast="auto">) est leur manque de compréhension contextuelle approfondie et leur sensibilité à la formulation précise des prompts. Une des techniques les plus connue pour exploiter cette vulnérabilité est l’attaque par </span><a href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/"><i><span data-contrast="none">prompt injection</span></i></a><span data-contrast="auto">. Il est donc nécessaire </span><b><span data-contrast="auto">d’introduire une étape intermédiaire de transformation des données utilisateur</span></b><span data-contrast="auto"> avant leur traitement par le modèle.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Il est possible de modifier légèrement l’entrée afin de contrer ce type d’attaque, tout en préservant la précision du modèle. Cette transformation peut se faire via diverses techniques (e.g. codage, ajout de bruit, reformulation, compression des caractéristiques, etc.). L’objectif est de conserver uniquement ce qui est essentiel à la réponse. Ainsi, toute information superflue potentiellement malicieuse est écartée. De plus, cette méthode prive l&rsquo;attaquant de la possibilité d&rsquo;accéder à la véritable entrée du système. Ce qui empêche toute analyse approfondie des relations entre entrées et sorties et complique ainsi la conception de futures attaques. Il reste toutefois essentiel de tester les différentes mesures implémentées, pour s&rsquo;assurer qu&rsquo;elles ne dégradent pas les performances du modèle, garantissant ainsi une sécurité renforcée sans compromettre l&rsquo;efficacité.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;" aria-level="1"> </p>
<p aria-level="1"> </p>
<p style="text-align: justify;"><span data-contrast="auto">Avec l’industrialisation de la production d’applications basées sur le Machine Learning et l’IA, la sécurité à grande échelle devient une question organisationnelle cruciale pour le marché. Il est impératif d’entreprendre une transition vers le MLSecOps. Cette transformation repose sur trois piliers principaux :</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<ul style="text-align: justify;">
<li data-leveltext="" data-font="Symbol" data-listid="24" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Renforcer la culture de sécurité des équipes de Data Scientists</span></b><span data-contrast="auto"> : Il est essentiel que les Data Scientists comprennent et intègrent les principes de sécurité dans leur travail quotidien. Cela permet de créer une culture de sécurité partagée et de renforcer la collaboration entre les différents acteurs.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="24" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Sécuriser les outils qui produisent les algorithmes de Machine Learning</span></b><span data-contrast="auto"> : Il est essentiel de sélectionner des outils de MLOps sécurisés et d’appliquer des bonnes pratiques au sein de outils (gestion des droits, etc.) pour sécuriser « l’usine » à algorithmes de Machine Learning et ainsi réduire la surface de compromission.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="24" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;multilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><b><span data-contrast="auto">Intégrer des mesures de sécurité spécifiques à l’IA</span></b><span data-contrast="auto"> : Adapter les mesures de sécurité aux particularités des systèmes d’IA est crucial pour prévenir les attaques potentielles et assurer la fiabilité des modèles dans le temps. Il convient donc d’intégrer ces mesures de sécurité dans la chaîne de MLOps à l’aide du MLSecOps.</span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></li>
</ul>
<p style="text-align: justify;"><span data-contrast="auto">Engagez-vous dès aujourd’hui dans la transition vers le MLSecOps. Formez vos équipes, sécurisez vos outils et intégrez des mesures de sécurité spécifiques à l’IA. A ce titre, vous pourrez bénéficier de systèmes d’IA produits industriellement et sécurisés by design. </span><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"><b><span data-contrast="none">Remerciements à Louis FAY et Hortense SOULIER qui ont également contribué à la rédaction de cet article.</span></b><span data-ccp-props="{&quot;335551550&quot;:6,&quot;335551620&quot;:6}"> </span></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/10/adopter-le-mlsecops-la-cle-pour-des-modeles-dia-fiables-et-securises/">Adopter le MLSecOps : la clé pour des modèles d’IA fiables et sécurisés </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/10/adopter-le-mlsecops-la-cle-pour-des-modeles-dia-fiables-et-securises/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Quel LLM vous convient ? Optimiser l&#8217;utilisation des benchmarks des LLM en interne.</title>
		<link>https://www.riskinsight-wavestone.com/2024/09/quel-llm-vous-convient-optimiser-lutilisation-des-benchmarks-des-llm-en-interne/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/09/quel-llm-vous-convient-optimiser-lutilisation-des-benchmarks-des-llm-en-interne/#respond</comments>
		
		<dc:creator><![CDATA[Jeanne PIGASSOU]]></dc:creator>
		<pubDate>Wed, 25 Sep 2024 14:24:05 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Deep-dive]]></category>
		<category><![CDATA[Benchmarks]]></category>
		<category><![CDATA[Chatbot arena]]></category>
		<category><![CDATA[HellaSwag]]></category>
		<category><![CDATA[HumanEval]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[MMLU]]></category>
		<category><![CDATA[modèles de langage de grande taille]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=23980</guid>

					<description><![CDATA[<p>Depuis le lancement de ChatGPT en novembre 2022, de nombreuses entreprises ont commencé à développer et à publier leurs propres modèles de langage de grande taille (LLM). À tel point que nous sommes actuellement dans une phase que de nombreux...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/09/quel-llm-vous-convient-optimiser-lutilisation-des-benchmarks-des-llm-en-interne/">Quel LLM vous convient ? Optimiser l&rsquo;utilisation des benchmarks des LLM en interne.</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Depuis le lancement de ChatGPT en novembre 2022, de nombreuses entreprises ont commencé à développer et à publier leurs propres modèles de langage de grande taille (LLM). À tel point que nous sommes actuellement dans une phase que de nombreux experts décrivent comme une « course à l&rsquo;IA ». Non seulement entre les entreprises, mais aussi entre les pays et les organisations internationales. Cette course à l&rsquo;IA décrit la frénésie mondiale visant à construire de meilleurs modèles, tout en élaborant des directives et des réglementations pour les encadrer. <strong>Mais qu&rsquo;est-ce qu&rsquo;un meilleur modèle, exactement ?</strong></p>
<p style="text-align: justify;">Pour répondre à cette question, des chercheurs et des ingénieurs du monde entier ont mis au point un système standardisé pour tester les LLM dans divers contextes, domaines de connaissance, et les quantifier de manière objective. Ces tests sont communément appelés des « Benchmarks », et différents benchmarks reflètent des cas d&rsquo;utilisation très variés.</p>
<p style="text-align: justify;">Cependant, pour l’utilisateur moyen, ces benchmarks seuls ne signifient pas grand-chose. Il existe un manque évident de sensibilisation pour l&rsquo;utilisateur final : un résultat de 97,3 % dans le benchmark « MMLU » est difficile à comprendre et à transposer dans leurs tâches quotidiennes.</p>
<p style="text-align: justify;">Pour éviter de telles confusions, l&rsquo;article présente des facteurs qui limitent les choix d&rsquo;un utilisateur en matière de LLM, les benchmarks de LLM les plus populaires et largement utilisés, leurs cas d&rsquo;utilisation, et comment ils peuvent aider les utilisateurs à choisir le LLM le plus optimal pour eux.</p>
<p> </p>
<h2 style="text-align: justify;">Facteurs qui impactent le choix des LLM</h2>
<p>Différents facteurs impactent la qualité du modèle : la date limite de connaissance, l&rsquo;accès à Internet, la multimodalité, la confidentialité des données, la fenêtre contextuelle ainsi que la vitesse et la taille des paramètres. Ces facteurs doivent être bien établis avant de passer aux évaluations des benchmarks et aux comparaisons de modèles, car ils limitent les modèles que vous pouvez utiliser en premier lieu.</p>
<h3><strong>Date limite de connaissances et accès à Internet</strong></h3>
<p style="text-align: justify;">Presque tous les modèles sur le marché ont une date limite de connaissance. Il s&rsquo;agit de la date à laquelle la collecte de données pour la formation du modèle prend fin. Par exemple, si la date limite est septembre 2021, le modèle n&rsquo;a aucun moyen de connaître les informations après cette date. Les dates limites sont généralement fixées un à deux ans avant la publication du modèle.</p>
<p style="text-align: justify;">Cependant, pour surmonter ce problème, certains modèles tels que Copilot (GPT-4) et Gemini ont été dotés d&rsquo;un accès à Internet, leur permettant de naviguer sur le web. Cela a permis à des modèles ayant une date limite de connaissances de continuer à accéder aux nouvelles et aux articles les plus récents. Cet accès permet également aux LLM de fournir des références aux utilisateurs, ce qui réduit le risque d&rsquo;hallucinations et rend les réponses plus fiables.</p>
<p style="text-align: justify;">Enfin, l&rsquo;accès à Internet est une fonctionnalité ajoutée au modèle plutôt qu&rsquo;une caractéristique intrinsèque du modèle lui-même. Il est donc limité aux modèles disponibles sur Internet, principalement ceux en source fermée et hébergés dans le cloud. Pour cette raison, il est important de déterminer vos besoins et de vérifier si disposer d&rsquo;informations à jour est réellement essentiel pour atteindre vos objectifs.</p>
<h3 style="text-align: justify;">Multimodalité</h3>
<p style="text-align: justify;">Différentes applications nécessitent des usages variés des LLM. Alors que la plupart d&rsquo;entre nous les utilisent principalement pour leurs capacités de génération de texte, de nombreux LLM sont en réalité capables d&rsquo;analyser des images, des voix, et de répondre avec des images également.</p>
<p style="text-align: justify;">Cependant, tous les LLM n&rsquo;ont pas cette capacité. La capacité d&rsquo;analyser différentes formes d&rsquo;entrée (texte, image, voix) est ce que l&rsquo;on appelle la « multimodalité ». C&rsquo;est un facteur important à prendre en compte, car si votre tâche nécessite l&rsquo;analyse de messages vocaux ou de diagrammes d&rsquo;entreprise, il est essentiel de rechercher des modèles qui sont multimodaux, tels que Claude 3 et ChatGPT.</p>
<h3 style="text-align: justify;">Protection des données</h3>
<p style="text-align: justify;">L&rsquo;un des risques liés à l&rsquo;utilisation de la plupart des modèles actuellement disponibles sur le marché est la confidentialité et la fuite des données. Plus précisément, la confidentialité et la sécurité des données dans les LLM peuvent être divisées en deux parties :</p>
<ol>
<li style="text-align: justify;"><strong>Confidentialité des données lors de l&rsquo;entraînement et de l&rsquo;ajustement</strong> : il s&rsquo;agit de savoir si le modèle a été formé sur des données contenant des informations personnelles identifiables (PII) et s&rsquo;il pourrait divulguer ces informations personnelles lors des échanges avec les utilisateurs. Cela dépend de l&rsquo;ensemble de données utilisé pour l&rsquo;entraînement du modèle et du processus d&rsquo;ajustement.</li>
<li style="text-align: justify;"><strong>Confidentialité des données lors du réentraînement et de la mémorisation</strong> : il s&rsquo;agit de savoir si le modèle utilise les conversations avec les utilisateurs pour se réentraîner, ce qui pourrait potentiellement entraîner la divulgation d&rsquo;informations d&rsquo;une conversation à une autre. Cependant, ce risque est limité à certains modèles en ligne. Cela dépend de la manière dont le modèle est configuré et des couches logicielles entre le modèle et l&rsquo;utilisateur.</li>
</ol>
<h3 style="text-align: justify;">Fenêtre contextuelle</h3>
<p style="text-align: justify;">La fenêtre contextuelle fait référence au nombre de jetons d&rsquo;entrée qu&rsquo;un modèle peut accepter. Ainsi, une fenêtre contextuelle plus grande signifie que le modèle peut accepter un texte d&rsquo;entrée plus important. Par exemple, le dernier modèle de Google, le Gemini 1.5 pro, dispose d&rsquo;une fenêtre contextuelle d&rsquo;un million de jetons, ce qui lui permet de lire des manuels entiers et de vous répondre sur la base des informations qu&rsquo;ils contiennent.</p>
<p style="text-align: justify;">Pour donner un contexte, une fenêtre de 1 million de jetons permet au modèle d&rsquo;analyser environ 60 livres entiers simplement à partir des entrées de l&rsquo;utilisateur avant de répondre à la demande de l&rsquo;utilisateur.</p>
<p style="text-align: justify;">Ainsi, il est donc évident que les modèles avec des fenêtres contextuelles plus grandes peuvent souvent être personnalisés pour répondre à des questions basées sur des documents d&rsquo;entreprise spécifiques sans avoir recours à la génération augmentée par récupération (RAG), qui est la solution la plus courante pour ce problème sur le marché.</p>
<p style="text-align: justify;">Cependant, les LLM facturent souvent les utilisateurs en fonction du nombre de jetons d&rsquo;entrée utilisés et il est donc à prévoir que les frais soient plus élevés lorsqu&rsquo;on utilise une fenêtre contextuelle plus grande. De plus, il n&rsquo;est pas courant que les modèles prennent plus de 10 minutes avant de répondre lorsqu&rsquo;ils utilisent une fenêtre contextuelle plus grande.</p>
<h3 style="text-align: justify;">Vitesse et taille des paramètres</h3>
<p style="text-align: justify;">Les LLM présentent des variations techniques qui peuvent influencer la rapidité de traitement de la demande de l&rsquo;utilisateur et la vitesse de génération de la réponse. La variation technique la plus importante qui affecte la vitesse des LLM est la taille des paramètres, qui fait référence au nombre de variables internes que le modèle possède. Ce nombre, généralement en milliards, reflète la sophistication du modèle, mais indique également que le modèle pourrait nécessiter plus de temps pour générer une réponse.</p>
<p style="text-align: justify;">Toutefois, l&rsquo;architecture interne du modèle a également son importance. Par exemple, certains des derniers modèles à plus de 70 milliards de paramètres sur le marché peuvent répondre en temps réel, tandis que certains modèles à 8 milliards de paramètres ont besoin de quelques minutes pour générer une réponse.</p>
<p style="text-align: justify;">Globalement, il est important de prendre en compte le compromis entre la vitesse d&rsquo;une part et la taille des paramètres (sophistication et complexité) d&rsquo;autre part, bien que cela dépende aussi fortement de l&rsquo;architecture interne du modèle et de l&rsquo;environnement dans lequel il est utilisé (API, service cloud, ou auto-déploiement, etc.).</p>
<p style="text-align: justify;">Néanmoins, la vitesse est un élément clé qui se situe à la frontière entre le facteur et le critère de référence puisqu&rsquo;elle est mesurée et utilisée pour comparer les différents modèles STOA. Cependant, la vitesse n&rsquo;est pas une forme d&rsquo;évaluation pragmatique standardisée et, pour cette raison, elle n&rsquo;est pas considérée comme un critère de référence.</p>
<h3 style="text-align: justify;">Prochaines étapes</h3>
<p style="text-align: justify;">Après avoir examiné les facteurs, les utilisateurs peuvent maintenant limiter leur choix de LLM et utiliser les critères d&rsquo;évaluation présentés dans la section suivante pour les aider à choisir le modèle le plus optimal. Cela permet à l&rsquo;utilisateur de maximiser son efficacité et de ne comparer que les modèles qui sont pertinents pour lui (en termes de date limite de connaissances, de vitesse, de confidentialité des données, etc.)</p>
<p> </p>
<h2 style="text-align: justify;">Comment les benchmarks sont-ils menés ?</h2>
<p style="text-align: justify;">Les benchmarks sont des outils utilisés pour évaluer la performance des LLM dans un domaine spécifique. Ils peuvent être réalisés de différentes manières, le facteur clé étant le nombre de paires question-réponse d&rsquo;exemples fournies au LLM avant qu&rsquo;il ne soit invité à résoudre une question réelle.</p>
<p style="text-align: justify;">Les benchmarks évaluent la capacité du LLM à accomplir une tâche spécifique. La plupart des benchmarks posent une question au LLM et comparent sa réponse avec une réponse correcte de référence. Si la réponse correspond, le score du LLM augmente. À la fin, les benchmarks fournissent un score de précision (Acc/Accuracy), qui est un pourcentage du nombre de questions auxquelles le LLM a répondu correctement.</p>
<p style="text-align: justify;">Cependant, en fonction de la méthode d&rsquo;évaluation, le LLM peut obtenir un certain contexte sur le benchmark, le type de questions ou d&rsquo;autres éléments. Cela se fait par le biais de tests à répétition ou d&rsquo;exemples multiples.</p>
<h3 style="text-align: justify;">Tests à répétition</h3>
<p>Les benchmarks sont réalisés de trois manières distinctes.</p>
<ol>
<li>Zéro répétition</li>
<li>Une répétition</li>
<li>Multi-répétition (souvent des multiples de 2 ou de 5)</li>
</ol>
<p style="text-align: justify;">Le terme « répétition » se réfère au nombre de fois qu&rsquo;une question exemple est donnée au LLM avant son évaluation.</p>
<p style="text-align: justify;">La raison pour laquelle nous avons différents types de tests (zéro répétition, une répétition, multi-répétitions) est que certains LLM surpassent d&rsquo;autres en termes de mémoire à court terme et d&rsquo;utilisation du contexte. Par exemple, le LLM1 pourrait avoir été formé avec plus de données et donc surpasser le LLM2 dans les tests zéro répétition. Cependant, la technologie sous-jacente du LLM2 lui permet de bénéficier d&rsquo;une capacité de raisonnement et de contextualisation supérieure, qui ne serait mesurée que par des évaluations d’une répétition ou de plusieurs répétitions.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23989" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-1-FR.png" alt="" width="537" height="202" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-1-FR.png 537w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-1-FR-437x164.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-1-FR-71x27.png 71w" sizes="auto, (max-width: 537px) 100vw, 537px" /></p>
<p style="text-align: center;"><em>Figure 1 : illustration de 3-shots vs 0-shot prompting</em></p>
<p style="text-align: justify;">Pour cette raison, chaque fois qu&rsquo;un LLM est évalué, des réglages à plusieurs répétitions sont utilisés pour garantir une compréhension complète du modèle et de ses capacités. Par exemple, si vous êtes intéressé par la recherche d&rsquo;un modèle qui contextualise bien et est capable de raisonner logiquement à travers de nouveaux et divers problèmes, envisagez d&rsquo;examiner comment la performance du modèle s&rsquo;améliore à mesure que le nombre de répétitions augmente. Si un modèle montre une amélioration significative, cela signifie qu&rsquo;il possède une forte capacité à raisonner et à apprendre des exemples précédents.</p>
<p> </p>
<h2 style="text-align: justify;">Principaux benchmarks et facteurs de différenciation</h2>
<p style="text-align: justify;">De nombreux benchmarks évaluent souvent les mêmes aspects. Il est donc important, lors de l&rsquo;examen des benchmarks, de comprendre ce qu&rsquo;ils évaluent, comment ils le font et quelles sont les implications de ces évaluations.</p>
<h3 style="text-align: justify;">Compréhension du Langage Multitâche Massif (MMLU)</h3>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23991" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-1-FR.png" alt="" width="625" height="227" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-1-FR.png 625w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-1-FR-437x159.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-1-FR-71x26.png 71w" sizes="auto, (max-width: 625px) 100vw, 625px" /></p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24005" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-2.png" alt="" width="1386" height="339" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-2.png 1386w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-2-437x107.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-2-71x17.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-2-768x188.png 768w" sizes="auto, (max-width: 1386px) 100vw, 1386px" /></p>
<p style="text-align: center;"><em>Figure 2 : exemple d’un questionnaire à choix multiple</em></p>
<p style="text-align: justify;">Le MMLU est l&rsquo;un des benchmarks les plus largement utilisés. Il s&rsquo;agit d&rsquo;un ensemble de données au format de questions à choix multiple couvrant 57 sujets uniques à un niveau de licence. Ces sujets incluent les humanités, les sciences sociales, les STIM (Sciences, Technologie, Ingénierie et Mathématique) et plus encore. Pour cette raison, le MMLU est considéré comme le benchmark le plus complet pour tester les connaissances générales d&rsquo;un LLM dans tous les domaines. De plus, il est également utilisé pour identifier les lacunes dans les données d&rsquo;entraînement du LLM, car il n&rsquo;est pas rare qu&rsquo;un LLM soit exceptionnellement bon dans un sujet et moins performant dans un autre.</p>
<p style="text-align: justify;">Cependant, le MMLU ne contient que des questions en anglais. Ainsi, un excellent résultat au MMLU ne se traduit pas nécessairement par de bonnes performances lorsqu&rsquo;il s&rsquo;agit de répondre à des questions de culture générale en français ou en espagnol. De plus, le MMLU est exclusivement basé sur des questions à choix multiple, ce qui signifie que le LLM est testé uniquement sur sa capacité à choisir la bonne réponse. Cela ne signifie pas nécessairement que le LLM est compétent pour générer des réponses cohérentes, bien structurées et sans hallucinations lorsqu&rsquo;il est confronté à des questions ouvertes.</p>
<p style="text-align: justify;">En règle générale, un score MMLU moyen élevé pour l&rsquo;ensemble des 57 champs indique que le modèle a été entraîné sur une grande quantité de données contenant des informations sur de nombreux sujets différents. Ainsi, un modèle qui obtient de bons résultats en MMLU est un modèle qui peut être utilisé efficacement (éventuellement avec un peu d&rsquo;ingénierie) pour répondre aux FAQ, aux questions d&rsquo;examen et à d&rsquo;autres questions courantes de la vie quotidienne.</p>
<h3 style="text-align: justify;">HellaSwag (HS)</h3>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23997" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-2-FR.png" alt="" width="622" height="225" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-2-FR.png 622w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-2-FR-437x158.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-2-FR-71x26.png 71w" sizes="auto, (max-width: 622px) 100vw, 622px" /></p>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23999" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3.png" alt="" width="2063" height="351" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3.png 2063w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3-437x74.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3-71x12.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3-768x131.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3-1536x261.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-3-2048x348.png 2048w" sizes="auto, (max-width: 2063px) 100vw, 2063px" /></p>
<p style="text-align: center;"><em>Figure 3 : exemple d’une question HellaSwag </em></p>
<p style="text-align: justify;">HellaSwag est un acronyme pour « Harder Endings, Longer contexts, and Low-shot Activities for Situations with Adversarial Generations ». Il s&rsquo;agit d&rsquo;un autre benchmark massif (plus de 10 000 questions) axé sur l&rsquo;anglais et basé sur des questions à choix multiple. Cependant, contrairement au MMLU, le HS n&rsquo;évalue pas les connaissances factuelles ou spécifiques à un domaine. Au lieu de cela, le HS se concentre sur la cohérence et le raisonnement des LLM.</p>
<p style="text-align: justify;">Les questions comme celle ci-dessus mettent le LLM au défi en lui demandant de choisir la suite de la phrase qui a le plus de sens humain. Grammaticalement, ces phrases sont toutes valables, mais seule l&rsquo;une d&rsquo;entre elles respecte le bon sens.</p>
<p style="text-align: justify;">La raison pour laquelle ce critère a été choisi est qu&rsquo;il fonctionne en tandem avec le MMLU. Alors que le MMLU évalue les connaissances factuelles, le HS évalue si le LLM serait capable d&rsquo;utiliser ces connaissances factuelles pour vous fournir des réponses cohérentes et sensées.</p>
<p style="text-align: justify;">Une bonne façon de visualiser l&rsquo;utilisation de MMLU et HS est d&rsquo;imaginer le monde dans lequel nous vivons aujourd&rsquo;hui. Nous avons des ingénieurs et des développeurs qui possèdent une grande compréhension et des connaissances techniques, mais qui n&rsquo;ont aucun moyen de les communiquer correctement en raison des barrières linguistiques et sociales. Pour cette raison, nous avons des consultants et des gestionnaires qui ne possèdent peut-être pas des connaissances aussi approfondies, mais qui ont la capacité d&rsquo;organiser et de communiquer les connaissances des ingénieurs de manière cohérente et concise.</p>
<p style="text-align: justify;">Dans ce cas, le MMLU représente l&rsquo;ingénieur, tandis que le HS joue le rôle du consultant. L&rsquo;un évalue les connaissances, tandis que l&rsquo;autre évalue la communication.</p>
<h3 style="text-align: justify;">HumanEval (HE)</h3>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23995" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-3-FR.png" alt="" width="625" height="243" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-3-FR.png 625w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-3-FR-437x170.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-3-FR-71x28.png 71w" sizes="auto, (max-width: 625px) 100vw, 625px" /></p>
<p style="text-align: justify;">Alors que le MMLU et le HS évaluent la capacité du LLM à raisonner et à répondre avec précision, HumanEval est le benchmark le plus populaire pour évaluer uniquement la capacité du LLM à générer du code utilisable pour 164 scénarios différents. Contrairement aux deux précédents, HumanEval n&rsquo;est pas basé sur des questions à choix multiple et permet au LLM de générer sa propre réponse. Cependant, toutes les réponses ne sont pas acceptées par le benchmark. Chaque fois qu&rsquo;un LLM est invité à coder une solution pour un scénario, HumanEval teste le code du LLM avec une variété de tests et de cas limites. Si l&rsquo;un de ces tests échoue, le LLM échoue également.</p>
<p style="text-align: justify;">De plus, HumanEval exige que le code généré par le LLM soit optimisé en termes de temps et d&rsquo;espace. Ainsi, si un LLM propose un certain algorithme alors qu&rsquo;un algorithme plus optimal est disponible, il perd des points. Pour cette raison, HumanEval teste également la capacité du LLM à comprendre précisément la question et à y répondre de manière exacte.</p>
<p style="text-align: justify;">HumanEval est un benchmark important, même pour les cas d&rsquo;utilisation non techniques, car il reflète de manière indirecte la sophistication et la qualité générales d&rsquo;un LLM. Pour la plupart des modèles, le public cible est composé de développeurs et des passionnés de technologie. Pour cette raison, il existe une forte corrélation positive entre des scores élevés à HumanEval et des scores élevés dans de nombreux autres benchmarks, ce qui indique que le modèle est de haute qualité. Cependant, il est important de garder à l&rsquo;esprit qu&rsquo;il s&rsquo;agit simplement d&rsquo;une corrélation, et non d&rsquo;une causalité, ce qui signifie que les choses pourraient évoluer à mesure que les modèles commencent à cibler de nouveaux utilisateurs.</p>
<h3 style="text-align: justify;">Chatbot Arena</h3>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24009" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-4-FR.png" alt="" width="621" height="222" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-4-FR.png 621w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-4-FR-437x156.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Table-4-FR-71x25.png 71w" sizes="auto, (max-width: 621px) 100vw, 621px" /></p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24003" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-4.png" alt="" width="1386" height="348" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-4.png 1386w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-4-437x110.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-4-71x18.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-4-768x193.png 768w" sizes="auto, (max-width: 1386px) 100vw, 1386px" /></p>
<p style="text-align: center;"><em>Figure 4 : exemple de l’interface Chatbot Arena</em></p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-24001" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-5.png" alt="" width="341" height="248" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-5.png 341w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-5-263x191.png 263w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/09/Figure-5-54x39.png 54w" sizes="auto, (max-width: 341px) 100vw, 341px" /></p>
<p style="text-align: center;"><em>Figure 5 : classement Chatbot Arena, juillet 2024</em></p>
<p style="text-align: justify;">Contrairement aux trois benchmarks précédents, Chatbot Arena n&rsquo;est pas un benchmark objectif, mais un classement subjectif de tous les LLM disponibles sur le marché. Chatbot Arena recueille les votes des utilisateurs et détermine quel LLM offre la meilleure expérience utilisateur globale, y compris la capacité à maintenir des dialogues complexes, comprendre les demandes des utilisateurs et d&rsquo;autres facteurs de satisfaction client. La nature subjective de Chatbot Arena en fait le meilleur benchmark pour évaluer l&rsquo;expérience utilisateur finale. Cependant, cette subjectivité le rend également non reproductible et difficile à quantifier réellement.</p>
<p style="text-align: justify;">Les classements actuels placent GPT-4o d&rsquo;OpenAI en tête de liste avec une marge importante par rapport à la deuxième place. Ce classement est très pertinent puisqu&rsquo;il est basé sur l&rsquo;opinion de 1,3 million de votes d&rsquo;utilisateurs.Cependant, ces votants proviennent principalement d&rsquo;un milieu technologique, et le classement pourrait donc être biaisé en faveur des modèles ayant de meilleures compétences en codage.</p>
<p style="text-align: justify;">Les classements sont établis sur la base du système ELO, un système à somme nulle où les modèles gagnent des points ELO en produisant des réponses meilleures que celles de leur modèle concurrent, tandis que ce dernier perd des points ELO.</p>
<h3 style="text-align: justify;">Évaluation globale des benchmarks</h3>
<p style="text-align: justify;">Les benchmarks peuvent présenter des biais et des limites internes. Ils peuvent être utilisés conjointement pour mieux représenter les capacités du modèle. Les modèles plus récents bénéficient d&rsquo;avantages en raison de leur architecture, de la taille de leurs données d&rsquo;entraînement et de la divulgation des questions de benchmark.</p>
<p style="text-align: justify;">Les trois benchmarks mentionnés plus un (Chatbot Arena) sont les plus populaires et les plus utilisés dans la recherche pour comparer les LLM. La combinaison de ces benchmarks (MMLU, HellaSwag, HumanEval et Chatbot Arena) évalue de nombreux aspects du LLM, de sa compréhension factuelle et de sa cohérence, à ses compétences en codage et à l&rsquo;expérience utilisateur. C’est pourquoi, ces quatre benchmarks sont largement utilisés dans de nombreux classements en ligne, car ils reflètent véritablement la nature du LLM.</p>
<p style="text-align: justify;">Cependant, il est important de considérer que les modèles LLM les plus récents bénéficient d&rsquo;un avantage considérable pour deux raisons principales :</p>
<ol>
<li style="text-align: justify;">Ils sont construits sur des architectures plus robustes, disposent de meilleures technologies sous-jacentes et ont accès à davantage de données pour l&rsquo;entraînement en raison de dates limites plus récentes et d&rsquo;une capacité matérielle plus grande.</li>
<li style="text-align: justify;">De nombreuses questions des benchmarks mentionnés précédemment ont été divulguées dans les données d&rsquo;entraînement des modèles.</li>
</ol>
<p style="text-align: justify;">Néanmoins, il existe de nombreux autres benchmarks disponibles sur Internet qui évaluent différents aspects des LLM et sont souvent utilisés ensemble pour offrir une vue complète de la performance du modèle.</p>
<h2 style="text-align: justify;"><br />Facteurs, Benchmarks et comment choisir votre LLM</h2>
<p style="text-align: justify;">En utilisant les facteurs et benchmarks mentionnés, vous pouvez comparer efficacement les LLM de manière quantifiable et objective, ce qui vous aidera à prendre une décision éclairée et à choisir le modèle le plus optimal pour vos besoins professionnels et vos tâches.</p>
<p style="text-align: justify;">De plus, chacun des benchmarks mentionnés possède des points forts et des faiblesses qui les rendent uniques et efficaces dans différents aspects. Chez Wavestone, nous reconnaissons cependant l&rsquo;importance de la diversification pour minimiser les risques. C&rsquo;est pourquoi nous avons développé une liste de vérification permettant aux utilisateurs de prendre des décisions plus éclairées lors du choix d&rsquo;un ensemble de benchmarks à suivre et de leur utilisation pour comparer les derniers modèles. La liste de vérification couvre une grande variété de domaines, de benchmarks et de facteurs, offrant à l&rsquo;utilisateur final un contrôle plus granulaire sur son choix de benchmarks.</p>
<p style="text-align: justify;">Cet outil, qui est également un suivi des priorités, permet aux utilisateurs d&rsquo;attribuer différents poids aux benchmarks afin de refléter avec précision leurs besoins professionnels et la nature des tâches. Par exemple, un consultant pourrait privilégier la multi-modalité pour l&rsquo;analyse de diagrammes et de graphiques par rapport aux compétences mathématiques, et ainsi attribuer un poids plus élevé à la multi-modalité</p>
<p> </p>
<h2 style="text-align: justify;">Réflexions finales</h2>
<p style="text-align: justify;">Dans le paysage en évolution rapide des LLM, comprendre les nuances entre les différents modèles et leurs capacités est crucial. Avant de considérer un LLM, plusieurs facteurs doivent être pris en compte, tels que la date limite de connaissance, la confidentialité des données, la vitesse, la taille des paramètres, la fenêtre contextuelle et la multimodalité. Une fois ces facteurs examinés, les utilisateurs peuvent consulter différents benchmarks pour prendre une décision plus éclairée. Ceux abordés dans cet article, à savoir MMLU, HellaSwag, HumanEval et Chatbot Arena, offrent un système robuste pour évaluer quantitativement ces modèles dans divers domaines.</p>
<p style="text-align: justify;">En conclusion, la course à l&rsquo;IA ne consiste pas seulement à développer de meilleurs modèles, mais aussi à tirer parti de ces modèles de manière efficace. Le choix du LLM le plus optimal n&rsquo;est pas un sprint mais un marathon, nécessitant un apprentissage continu, une adaptation et une prise de décision stratégique à travers le benchmarking et les tests. Alors que nous continuons à explorer le potentiel des LLM, rappelons-nous que la véritable mesure du succès ne réside pas dans la sophistication de la technologie, mais dans sa capacité à ajouter de la valeur à notre travail et à nos vies.</p>
<p> </p>
<h3>Remerciements</h3>
<p>Nous remercions Awwab Kamel Hamam pour son travail dans la rédaction de cet article.</p>
<p> </p>
<h2 style="text-align: justify;">Lectures complémentaires et références</h2>
<p style="text-align: justify;">[1] D. Hendrycks et al., “Measuring Massive Multitask Language Understanding.” arXiv, 2020. doi: 10.48550/ARXIV.2009.03300. Disponible sur : https://arxiv.org/abs/2009.03300 <br />[2] D. Hendrycks et al., “Aligning AI With Shared Human Values.” arXiv, 2020. doi: 10.48550/ARXIV.2008.02275. Disponible sur : https://arxiv.org/abs/2008.02275<br />[3] M. Chen et al., “Evaluating Large Language Models Trained on Code.” arXiv, 2021. doi: 10.48550/ARXIV.2107.03374. Disponible sur : https://arxiv.org/abs/2107.03374<br />[4] R. Zellers, A. Holtzman, Y. Bisk, A. Farhadi, and Y. Choi, “HellaSwag: Can a Machine Really Finish Your Sentence?” arXiv, 2019. doi: 10.48550/ARXIV.1905.07830. Disponible sur : https://arxiv.org/abs/1905.07830<br />[5] W.-L. Chiang et al., “Chatbot Arena: An Open Platform for Evaluating LLM by Human Preference.” arXiv, 2024. doi: 10.48550/ARXIV.2403.04132. Disponible sur : https://arxiv.org/abs/2403.04132</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/09/quel-llm-vous-convient-optimiser-lutilisation-des-benchmarks-des-llm-en-interne/">Quel LLM vous convient ? Optimiser l&rsquo;utilisation des benchmarks des LLM en interne.</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/09/quel-llm-vous-convient-optimiser-lutilisation-des-benchmarks-des-llm-en-interne/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Panorama réglementaire sur l&#8217;IA dans le monde: quelles sont les approches des Etat-Unis et de l&#8217;Angleterre</title>
		<link>https://www.riskinsight-wavestone.com/2024/05/panorama-reglementaire-sur-lia-dans-le-monde-quelles-sont-les-approches-des-etat-unis-et-de-langleterre/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/05/panorama-reglementaire-sur-lia-dans-le-monde-quelles-sont-les-approches-des-etat-unis-et-de-langleterre/#respond</comments>
		
		<dc:creator><![CDATA[Amélie Grangien]]></dc:creator>
		<pubDate>Fri, 03 May 2024 08:50:37 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Reglementation]]></category>
		<category><![CDATA[UK]]></category>
		<category><![CDATA[USA]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=23066</guid>

					<description><![CDATA[<p>Dans un cadre réglementaire dynamique autour de l’Intelligence Artificielle, les efforts récents en matière de gouvernance et de réglementation de l&#8217;Intelligence Artificielle ont évolué d&#8217;une série de mesures dispersées et réactives vers des cadres politiques cohérents. L’ambition de ces cadres...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/05/panorama-reglementaire-sur-lia-dans-le-monde-quelles-sont-les-approches-des-etat-unis-et-de-langleterre/">Panorama réglementaire sur l&rsquo;IA dans le monde: quelles sont les approches des Etat-Unis et de l&rsquo;Angleterre</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Dans un cadre réglementaire dynamique autour de l’Intelligence Artificielle, les efforts récents en matière de gouvernance et de réglementation de l&rsquo;Intelligence Artificielle ont évolué d&rsquo;une série de mesures dispersées et réactives <strong>vers des cadres politiques cohérents</strong>. L’ambition de ces cadres sont doubles : encourager l’innovation tout en limitant les utilisations abusives de l’IA.</p>
<p style="text-align: justify;">Alors que l’Intelligence Artificielle est de plus en plus présente dans notre quotidien, des inquiétudes concernant l’éthique de cette technologie se font entendre de la part du secteur public ainsi que du secteur privé à propos de la vie privée, les biais, la responsabilité et la transparence.</p>
<p><img loading="lazy" decoding="async" class="aligncenter wp-image-23090 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo1-FR-1.png" alt="" width="723" height="471" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo1-FR-1.png 723w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo1-FR-1-293x191.png 293w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo1-FR-1-60x39.png 60w" sizes="auto, (max-width: 723px) 100vw, 723px" /></p>
<figure id="attachment_23070" aria-describedby="caption-attachment-23070" style="width: 594px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="wp-image-23070 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo2-FR.png" alt="Annual reported artificial intelligence incidents and controversies" width="594" height="421" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo2-FR.png 594w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo2-FR-269x191.png 269w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/05/article-pierre-photo2-FR-55x39.png 55w" sizes="auto, (max-width: 594px) 100vw, 594px" /><figcaption id="caption-attachment-23070" class="wp-caption-text"><em><br /><a href="https://ourworldindata.org/artificial-intelligence" target="_blank" rel="noopener">Source: https://ourworldindata.org/artificial-intelligence</a></em></figcaption></figure>
<p style="text-align: justify;">Aujourd&rsquo;hui, alors que les gouvernements rédigent activement des orientations et des législations sur l&rsquo;IA, les responsables politiques font face au défi de trouver un équilibre entre encourager l&rsquo;innovation et garantir la responsabilité. Un cadre réglementaire qui privilégie l&rsquo;innovation mais s&rsquo;appuie trop fortement sur l&rsquo;autorégulation du secteur privé pourrait conduire à un manque de surveillance et de responsabilité. En revanche, tandis que des garde-fous robustes sont essentiels pour atténuer les risques, une approche trop restrictive pourrait ralentir le progrès technologique.</p>
<p style="text-align: justify;">Cet article explorera les approches proposées par les gouvernements des États-Unis et du Royaume-Uni en ce qui concerne la gouvernance de l&rsquo;IA dans les secteurs public et privé.</p>
<p> </p>
<h2 style="text-align: justify;">L’approche américaine envers la régulation de l’IA</h2>
<p style="text-align: justify;">En octobre 2023, la Maison Blanche a publié l&rsquo;“AI Executive Order”. L&rsquo;ordonnance spécifie les principales priorités à court terme. Elle introduit l’obligation de produire des rapports pour les développeurs d&rsquo;IA dépassant une certaine puissance de calculs, le lancement d&rsquo;initiatives de recherche, le développement de projets pour une utilisation responsable de l&rsquo;IA et l&rsquo;établissement d&rsquo;une gouvernance de l&rsquo;IA au sein du gouvernement fédéral. Les efforts à plus long terme se concentrent sur la coopération internationale, les normes mondiales et la sécurité de l&rsquo;IA.</p>
<p style="text-align: justify;">Concernant la garantie de responsabilité, l&rsquo;ordonnance demande au Secrétaire au Commerce d&rsquo;appliquer les dispositions de déclaration aux :</p>
<ul>
<li style="text-align: justify;">Entreprises qui développent des modèles fondamentaux d&rsquo;IA à double usage</li>
<li style="text-align: justify;">Organisations qui achètent des clusters informatiques à grande échelle</li>
<li style="text-align: justify;">Fournisseurs d’infrastructures IaaS qui permettent à des entités étrangères de mener certains entraînements de modèles d&rsquo;IA.</li>
</ul>
<p style="text-align: justify;">Bien que ces critères excluent probablement la plupart des petites et moyennes entreprises de ces directives, les acteurs majeurs du domaine comme Open AI, Anthropic et Meta pourraient être affectés s&rsquo;ils dépassent le seuil de calcul établi par l&rsquo;ordonnance.</p>
<p style="text-align: justify;">En parallèle, d&rsquo;autres sections de l&rsquo;ordonnance réaffirment <strong>l&rsquo;objectif du gouvernement américain de promouvoir l&rsquo;innovation et la concurrence</strong> en matière d&rsquo;IA en soutenant les initiatives de R&amp;D et les partenariats public-privé, en simplifiant les processus de visa pour attirer les talents en IA aux États-Unis, en priorisant le recrutement axé sur l&rsquo;IA au sein du gouvernement fédéral et en clarifiant les problèmes de propriété intellectuelle liés à l&rsquo;IA.</p>
<p style="text-align: justify;">Dans l&rsquo;ensemble, la nature des documents publiés par les États-Unis est principalement <strong>non contraignante</strong>. Cela semble indiquer une stratégie visant à encourager le secteur privé à s&rsquo;autoréguler et à s&rsquo;aligner sur les meilleures pratiques courantes en matière d&rsquo;IA. La Maison Blanche a été constante dans son message selon lequel elle s&rsquo;engage à encourager l&rsquo;innovation, la recherche et le leadership dans ce domaine, tout en contrebalançant avec la nécessité d&rsquo;un écosystème d&rsquo;IA sécurisé et responsable.</p>
<p> </p>
<h2 style="text-align: justify;">L’approche britannique envers la régulation de l’IA</h2>
<p style="text-align: justify;">La Déclaration de Bletchley, adoptée lors du Sommet sur la Sécurité de l&rsquo;IA 2023 tenu à Bletchley Park, dans le Buckinghamshire, marque un effort international pionnier visant à assurer le développement sûr et responsable des technologies d&rsquo;IA. Cette déclaration représente l&rsquo;engagement de 29 gouvernements dont le Royaume-Uni, les Etats-Unis, la Chine et les principaux États membres européens, à collaborer pour développer une IA centrée sur l&rsquo;humain, digne de confiance et responsable. L&rsquo;accent est mis sur l&rsquo;IA de pointe, qui désigne des modèles d&rsquo;IA très puissants et généralistes qui pourraient présenter des risques majeurs, notamment dans des domaines tels que la cybersécurité et la biotechnologie.</p>
<p style="text-align: justify;">La déclaration souligne la nécessité pour les gouvernements de prendre des mesures proactives pour garantir le développement sûr de l&rsquo;IA, reconnaissant le déploiement omniprésent de la technologie dans la vie quotidienne, y compris le logement, l&#8217;emploi, l&rsquo;éducation et les soins de santé. Elle appelle au développement de politiques basées sur les risques, de métriques d&rsquo;évaluation appropriées, d&rsquo;outils pour les tests de sécurité, ainsi qu’à la construction de capacités pertinentes dans le secteur public et la recherche scientifique.</p>
<p style="text-align: justify;">En prime de la déclaration, un document politique sur les « Tests de sécurité” de l&rsquo;IA a également été signé par dix pays, dont le Royaume-Uni et les États-Unis, ainsi que par des grandes entreprises technologiques. Ce document donne un cadre général pour le test des modèles d&rsquo;IA de nouvelle génération par les agences gouvernementales, promeut la coopération internationale et permet aux agences gouvernementales de développer leurs propres approches en matière de réglementation de la sécurité de l&rsquo;IA.</p>
<p style="text-align: justify;">Les principaux enseignements de la Déclaration de Bletchley envoient un signal clair des gouvernements concernant <strong>l&rsquo;urgence de s’intéresser au développement d&rsquo;une IA sûre</strong>. Cependant, la manière dont ces engagements se traduiront par des propositions législatives spécifiques et le rôle de l' »AI Safety Institute “(AISI) récemment annoncé dans le paysage réglementaire du Royaume-Uni restent à voir. La mission de l&rsquo;AISI est de limiter les surprises liées aux avancées rapides et inattendues de l&rsquo;IA en se concentrant sur le test et l&rsquo;évaluation des systèmes d&rsquo;IA avancés, la recherche fondamentale sur la sécurité de l&rsquo;IA et l’encouragement des échanges d&rsquo;informations.</p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Alors qu&rsquo;ils cherchent à s&rsquo;établir en tant que leaders de l&rsquo;IA dans la communauté mondiale pour tendre vers des IA de confiance, tant les États-Unis que le Royaume-Uni cherchent l’équilibre entre la promotion de l&rsquo;innovation en matière d&rsquo;IA et la garantie d&rsquo;une gouvernance éthique. Bien que la plupart des efforts actuels se focalisent sur la proposition de lignes directrices et de cadres pour l&rsquo;utilisation sûre et responsable de l&rsquo;IA, la mention de réglementations futures potentielles dans les deux documents devrait servir d&rsquo;incitations pour que les entreprises commencent à aligner leurs pratiques sur les principes et les recommandations énoncés.</p>
<p style="text-align: justify;">Pour garder leur avance, les organisations devront développer des méthodologies strictes pour surveiller efficacement les risques liés à l&rsquo;IA. Cela signifie qu’il faudra adapter leur stratégie d&rsquo;IA pour prioriser la limitation des risques, identifier les dommages potentiels qui peuvent découler du déploiement de systèmes d&rsquo;IA et se préparer aux mesures réglementaires futures en mettant en œuvre un programme de gestion des risques sécurisé et complet.</p>
<p style="text-align: justify;">Cependant, l&rsquo;approche opportuniste des États-Unis et du Royaume-Uni en matière de législation sur l&rsquo;IA n&rsquo;est pas suivie par tous. La Chine a opté pour une approche ciblée et évolutive en rédigeant une loi sur l&rsquo;IA générative qui est entrée en vigueur en 2023. En Europe, l&rsquo;AI Act montre que l&rsquo;UE ne veut pas perdre le contrôle face à l’IA.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/05/panorama-reglementaire-sur-lia-dans-le-monde-quelles-sont-les-approches-des-etat-unis-et-de-langleterre/">Panorama réglementaire sur l&rsquo;IA dans le monde: quelles sont les approches des Etat-Unis et de l&rsquo;Angleterre</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/05/panorama-reglementaire-sur-lia-dans-le-monde-quelles-sont-les-approches-des-etat-unis-et-de-langleterre/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>L’intelligence artificielle, une révolution pour l’IAM ?</title>
		<link>https://www.riskinsight-wavestone.com/2024/03/lintelligence-artificielle-une-revolution-pour-liam/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/03/lintelligence-artificielle-une-revolution-pour-liam/#respond</comments>
		
		<dc:creator><![CDATA[François Sontag]]></dc:creator>
		<pubDate>Fri, 29 Mar 2024 08:15:54 +0000</pubDate>
				<category><![CDATA[Digital Identity]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[gestion des identités]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[IAM]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=22791</guid>

					<description><![CDATA[<p>Les récentes avancées en matière d’intelligence artificielle (IA) promettent une révolution dans tous les aspects de notre vie, tant professionnelle que personnelle. Cette transformation touche chaque métier au sein de nos entreprises, suscitant des interrogations sur l&#8217;impact de l&#8217;IA dans...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/03/lintelligence-artificielle-une-revolution-pour-liam/">L’intelligence artificielle, une révolution pour l’IAM ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Les récentes avancées en matière d’intelligence artificielle (IA) promettent une <strong>révolution</strong> dans tous les aspects de notre vie, tant professionnelle que personnelle. Cette transformation touche chaque métier au sein de nos entreprises, suscitant des interrogations sur l&rsquo;impact de l&rsquo;IA dans des domaines bien établis tels que la gestion des identités et des accès (IAM).</p>
<p style="text-align: justify;">Bien que les avis soient partagés entre les enthousiastes, les craintifs et les sceptiques de l’IA, les plus optimistes avancent que l’intelligence artificielle peut améliorer nos processus de travail et faciliter des actions parfois répétitives en se posant comme un facilitateur à la réalisation de nos tâches.</p>
<p style="text-align: justify;"><strong>Mais ces avancées sont-elles applicables en matière d’IAM ? </strong><strong>Peut-on déléguer partiellement ou entièrement la gestion de nos identités et de nos accès lorsque la protection des données des utilisateurs est devenue une préoccupation majeure ?</strong></p>
<p> </p>
<h2>IA et IAM : un nouveau défi pour les entreprises</h2>
<p style="text-align: justify;">Une question fondamentale apparaît lorsqu’il s’agit de réfléchir à la relation entre IA et IAM :  dans la mesure où les systèmes IAM existent pour instaurer une <strong>confiance numérique</strong>, que ce soit envers nos collaborateurs, clients ou partenaires, <strong>est-il possible de garantir que des solutions basées sur l&rsquo;IA assureront ce même niveau de confiance ? </strong></p>
<p style="text-align: justify;">Malgré les interrogations possibles, nous estimons qu&rsquo;il est impératif d’envisager les possibilités offertes par l’IA. Les équipes IAM doivent s’ouvrir à ces nouveaux enjeux et adopter une approche de « <strong>Test &amp; Learn</strong> » sur la base de <strong>cas d&rsquo;usage </strong>concrets. La collaboration avec les éditeurs IAM, les intégrateurs ou les équipes internes Data ou IA est nécessaire afin d’explorer toutes les possibilités.</p>
<p style="text-align: justify;">En outre, nous sommes convaincus que l&rsquo;environnement actuel offre un terrain propice à l&rsquo;adoption de cette approche :</p>
<ul>
<li style="text-align: justify;">Les <strong>directions</strong><strong> et les métiers</strong> de l&rsquo;entreprise cherchent à comprendre l&rsquo;impact potentiel de l&rsquo;IA sur différents aspects de l&rsquo;entreprise et les équipes IAM doivent être en mesure de fournir des réponses.</li>
<li style="text-align: justify;">Le développement des <strong>offres Cloud </strong>pour la gestion des identités et des accès, ainsi que la convergence renforcée des solutions d&rsquo;Access Management (AM) et d’Identity Governance and Administration (IGA), créent un environnement favorable au développement de l&rsquo;IA. Les algorithmes d&rsquo;entraînement peuvent accéder à davantage de données, facilitant ainsi la production de valeur.</li>
<li style="text-align: justify;">Le <strong>paysage des menaces </strong>évolue toujours plus vite – avec l’IA notamment – et les équipes IAM sont confrontées à toujours plus de besoins en termes de conformité, sécurité, expérience utilisateur ou encore efficacité opérationnelle.</li>
</ul>
<p style="text-align: justify;"><strong>Il semble donc naturel de se demander si l&rsquo;IA peut contribuer à résoudre ces défis en s’intéressant à des cas d’usage concrets. Dans cet article, nous allons regarder de plus près les possibilités offertes par l’IA, les leviers clés susceptibles d’être impactés par son utilisation et comment elle pourrait (ou non) changer nos modes de fonctionnement autour de l’IAM.</strong></p>
<p> </p>
<h2>La contribution de l’IA aux 3 enjeux essentiels de l’IAM</h2>
<p style="text-align: justify;">L’analyse de différents cas d’usage prenant en compte l’IA pour l’IAM a été pensée autour des 3 moteurs de l’IAM :</p>
<ul>
<li>La cybersécurité et la conformité</li>
<li>L’expérience utilisateur</li>
<li>L’efficacité opérationnelle et business</li>
</ul>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-22846 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture1-article-FR.png" alt="IA dans l'IAM les trois principaux cas d'usage" width="964" height="508" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture1-article-FR.png 964w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture1-article-FR-362x191.png 362w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture1-article-FR-71x37.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture1-article-FR-768x405.png 768w" sizes="auto, (max-width: 964px) 100vw, 964px" /></p>
<p style="text-align: justify;">Les cas d’usage présentés ci-dessous sont le fruit de la réflexion d&rsquo;une quarantaine de consultants et professionnels de l&rsquo;IAM amenés à s’interroger sur la contribution que peut avoir l’IA pour l’IAM au travers de différents ateliers.</p>
<p> </p>
<h2>Être un levier pour la cybersécurité et la conformité</h2>
<h3>Cas d’usage 1 : Vérification continue</h3>
<p style="text-align: justify;">Actuellement de nombreux mécanismes permettent de contrôler le comportement d’un utilisateur via différents critères (localisation, appareil utilisé, etc.). L’ajout de l’intelligence artificielle dans un processus de vérification en continu permettrait de maximiser le potentiel de surveillance pendant et après l’authentification de l’utilisateur en agrégeant une multitude d’informations au sujet de l’utilisateur (analyse comportementale des frappes clavier ou cliques souris, horaire habituel de connexion, comportement suspect au sein de l’application, etc.) et d’apporter une remédiation automatique adaptée (demande de réauthentification, arrêt de session, alerte aux équipes sécurité, etc.).</p>
<p style="text-align: justify;">A l’heure actuelle, certains éditeurs proposent ou prévoient de proposer des fonctionnalités sur la vérification continue. Le but étant d’utiliser l’IA pour évaluer en continu les risques et appliquer des politiques de sécurité à la connexion, mais aussi durant la session d’un utilisateur actif. Ces fonctionnalités réduisent le risque d’accès non autorisés et les menaces dites « post-authentification », comme le détournement de session, le piratage de compte ou encore la fraude lors de l’authentification.</p>
<p> </p>
<h3>Cas d’usage 2 : Aide à la décision</h3>
<p style="text-align: justify;">La prise de décision peut poser des défis tant pour un manager que pour l&rsquo;utilisateur lui-même, notamment lorsqu&rsquo;il s&rsquo;agit d&rsquo;assigner ou de demander des droits.</p>
<p style="text-align: justify;">Les managers, par exemple, peuvent ne pas toujours avoir une connaissance approfondie des droits spécifiques à accorder à un membre de leur équipe, et il peut être nécessaire de solliciter de l&rsquo;aide pour déterminer la meilleure approche lors de l&rsquo;attribution de ces droits.</p>
<p style="text-align: justify;">De plus, la revue des droits est un processus généralement peu apprécié par les différents métiers, d’autant plus lorsqu’elle est faite de manière manuelle. Les managers peuvent parfois opter pour une validation des droits de leur équipe « par défaut » par manque de temps ou de connaissance.</p>
<p style="text-align: justify;">C&rsquo;est là que l&rsquo;intelligence artificielle peut intervenir en offrant une assistance rapide et efficace aux responsables concernés. Elle peut ainsi fournir des recommandations pour un utilisateur en tenant compte de divers facteurs tels que le nombre de personnes de son équipe ayant des droits similaires, les droits récemment attribués aux collaborateurs travaillant avec lui ou encore les droits requis pour son activité. Cette assistance dans l&rsquo;attribution des droits et des accès ainsi que dans leur revue constitue une orientation précieuse pour les responsables. Elle permet de renforcer la légitimité des droits d’accès des utilisateurs ainsi que la sécurité.</p>
<p style="text-align: justify;">Notons que l’aide à la décision basée sur l’IA fait partie des cas d’usage les plus mis en avant par les éditeurs en ce moment.</p>
<p> </p>
<h2>Améliorer l’expérience utilisateur</h2>
<h3>Cas d’usage 3 : Documentation des droits accès</h3>
<p style="text-align: justify;">Il est essentiel pour les utilisateurs d&rsquo;avoir une compréhension exhaustive et détaillée de leurs autorisations et de leurs accès. Cela leur permet non seulement de connaître leurs droits d’accès, mais aussi d&rsquo;identifier les éventuels manques au sein de leurs activités. Une simple liste de droits peut parfois être peu explicite pour la plupart des utilisateurs. Cependant, l&rsquo;utilisation de l&rsquo;intelligence artificielle générative pourrait permettre la création rapide d&rsquo;un schéma « intelligent », offrant une visualisation claire des droits accessibles à l&rsquo;utilisateur, avec une distinction visuelle selon certains critères tels que :</p>
<ul>
<li>Le niveau de droits (consultation, modification, administration, etc.)</li>
<li>Le domaine d&rsquo;application (gestion des achats, validation des paiements, etc.)</li>
<li>La criticité du droit</li>
<li>La durée de validité des droits</li>
<li>Les conditions d’octroi des droits (cycle d’approbation)</li>
<li>L’historique des droits utilisés</li>
</ul>
<p style="text-align: justify;">Ainsi, l&rsquo;IA pourrait grandement faciliter la compréhension des droits par les utilisateurs en offrant une vision claire, structurée et contextualisée de leurs autorisations.</p>
<p> </p>
<h3>Cas d’usage 4 : Autorisation dynamique</h3>
<p style="text-align: justify;">Se retrouver bloquer par manque de droits pour accéder à un document, une application ou un groupe SharePoint n’est pas une situation anodine et peut fortement nuire à l’expérience utilisateur, d’autant plus lorsque les délais de traitement sont importants. Cependant, lorsque les ressources accédées ne sont pas critiques, l’intelligence artificielle a un vrai rôle à jouer afin d’automatiser l’accès de manière efficace. Par exemple, basé sur le fait que des personnes de la même équipe ou travaillant sur le même projet aient certains accès, l&rsquo;IA pourrait temporairement accorder l&rsquo;accès à un utilisateur pour éviter tout blocage. En parallèle, des suggestions pourraient être proposées à l’utilisateur afin d’effectuer la demande et avoir un accès prolongé.</p>
<p style="text-align: justify;">Par ailleurs, cette approche dynamique de l&rsquo;autorisation peut présenter des avantages en termes d&rsquo;économie de licences. Si l&rsquo;attribution d&rsquo;un droit dans une application nécessite l&rsquo;utilisation d&rsquo;une licence, une attribution temporaire (« juste à temps ») permet à l&rsquo;utilisateur de n&rsquo;utiliser la licence que pendant la durée nécessaire à ses tâches, avant de la réattribuer à un autre utilisateur. Au-delà de l&rsquo;amélioration de l&rsquo;expérience utilisateur, cette approche peut également générer des économies budgétaires significatives.</p>
<p> </p>
<h2>Être un facilitateur business et améliorer l’efficacité</h2>
<h3>Cas d’usage 5 : Automatisation des droits d’arrivée</h3>
<p style="text-align: justify;">Les processus Joiner-Mover-Leaver (JML) revêtent une importance cruciale au sein des processus IAM des entreprises. Ils visent entre autres à contrôler et à faciliter les changements de statut d&rsquo;un utilisateur conformément à un ensemble de règles définies. Cela inclut notamment l&rsquo;activation ou la désactivation des accès et l&rsquo;attribution du niveau de droits approprié en suivant le principe du moindre privilège, par exemple, en supprimant les droits obsolètes à la suite d’une mobilité interne.</p>
<p style="text-align: justify;">L’utilisateur ne doit donc pas être « bloqué » (par manque ou absence de droits) lors de son arrivée ou lors d’une mobilité, car cela impacterait fortement ses activités.</p>
<p style="text-align: justify;">L&rsquo;intelligence artificielle pourrait jouer un rôle majeur dans ces processus JML en analysant le passé des utilisateurs occupant un même poste/service, ayant déjà reçu un ensemble de droits à leur arrivée. Ces analyses pourraient générer des suggestions de droits et d&rsquo;accès à attribuer à un nouvel arrivant dans le même service. De plus, l&rsquo;intelligence artificielle pourrait proposer des améliorations pour les processus de mobilité en suggérant un ensemble de droits correspondant aux rôles attribués dans le nouveau service, voire même faciliter l’évolution des rôles métiers en proposant des modifications de leurs compositions.</p>
<p> </p>
<h3>Cas d’usage 6 : Support IAM</h3>
<p style="text-align: justify;">Les chatbots interactifs gagnent une place croissante au sein des entreprises en assistant les utilisateurs dans divers processus tels que la création d&rsquo;incidents ou la recherche de documents.</p>
<p style="text-align: justify;">Toutefois, grâce à l&rsquo;intelligence artificielle, ces chatbots pourraient également apporter un soutien précieux aux équipes de cybersécurité et de support en accélérant la récupération d&rsquo;informations. Par exemple, les équipes de cybersécurité pourraient demander au chatbot de fournir toutes les autorisations sensibles d’un utilisateur, tandis que les équipes de support pourraient demander pourquoi un utilisateur est en attente d&rsquo;habilitation pour une application.</p>
<p style="text-align: justify;">Le temps considérable actuellement consacré par ces équipes à rechercher les informations pertinentes, à récupérer les bons tickets d&rsquo;incident et à examiner l&rsquo;historique des utilisateurs pourrait ainsi être significativement réduit. Ces chatbots seraient en mesure d&rsquo;interroger les solutions IAM, les outils de gestion des incidents et d&rsquo;autres outils de l&rsquo;entreprise pour récupérer les données nécessaires. Cela permettrait ainsi aux équipes de se concentrer sur des tâches à plus forte valeur ajoutée et de résoudre les incidents de manière plus efficace.</p>
<p style="text-align: center;"><strong>***</strong></p>
<p style="text-align: justify;">Loin d’être exhaustifs, ces quelques exemples illustrent la <strong>diversité des domaines d’application de l’IA au sein de l’IAM</strong>. D’autres cas d’usage pourraient également tirer partie de l’IA, tels que :</p>
<ul>
<li style="text-align: justify;">La détection de droits d’accès incompatibles (Segregation of Duties) : Suggérer des droits incompatibles suivant les activités de l’entreprise, identifier de manière proactive les conflits dans les autorisations des utilisateurs et proposer des remédiations.</li>
<li style="text-align: justify;">L&rsquo;optimisation de la qualité des données : Améliorer la qualité des données en effectuant des rapprochements automatiques d’un grand nombre de données, en corrigeant les doublons ou les données orphelines, en signalant les divergences ou les volumes anormaux, en nettoyant automatiquement les données et en les corrigeant.</li>
<li style="text-align: justify;">La vérification de la conformité du système IAM : Évaluer la configuration du système IAM par rapport aux normes, aux meilleures pratiques, aux recommandations des fournisseurs et aux observations externes, et proposer des suggestions pour renforcer la sécurité.</li>
</ul>
<p style="text-align: justify;">Il est important de noter que la <strong>facilité de mise en œuvre</strong> et <strong>l&rsquo;intérêt</strong> pour l’ensemble des cas d’usage mentionnés varient selon les <strong>secteurs d&rsquo;activité</strong> des entreprises. Par exemple, dans le secteur industriel, l&rsquo;accent peut être mis sur l&rsquo;efficacité des processus et la sécurité, au détriment parfois de l&rsquo;expérience utilisateur, en raison de processus complexes et historiques reposant sur des technologies plus anciennes.</p>
<p style="text-align: justify;">Pour autant, dans le cadre des ateliers organisés autour des sujets IA et IAM,  voici ce qu&rsquo;il ressort en termes d&rsquo;estimation de la faisabilité et de la valeur ajoutée sur les 9 cas d’usage présentés précedemment :</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-22848 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture2-article-FR.png" alt="Estimation de la faisabilité et de la valeur ajoutée des cas d'usage" width="964" height="502" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture2-article-FR.png 964w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture2-article-FR-367x191.png 367w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture2-article-FR-71x37.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/03/Picture2-article-FR-768x400.png 768w" sizes="auto, (max-width: 964px) 100vw, 964px" /></p>
<p> </p>
<h2>Que peut-on espérer à l’avenir ?</h2>
<p style="text-align: justify;"><strong>L’IA permet et va</strong> <strong>permettre de plus en plus de répondre aux 3 piliers de l&rsquo;IAM</strong> (<strong>sécurité &amp; conformité</strong>, <strong>expérience utilisateur</strong> et <strong>efficacité opérationnelle</strong>). Certains cas d&rsquo;usage sont déjà proposés par des éditeurs et vont continuer d&rsquo;évoluer, d&rsquo;autres sont sur leur feuille de route, et d&rsquo;autres encore se limitent à des contraintes techniques et restent pour l&rsquo;instant au stade d’ambitions prometteuses.</p>
<p style="text-align: justify;">Cependant, ne s’intéresser qu’aux promesses serait se mettre des œillères, il est impératif de reconnaitre et d&rsquo;anticiper d&rsquo;ores et déjà les <strong>risques induits par l&rsquo;utilisation de l&rsquo;IA dans l&rsquo;IAM</strong> : notamment la possibilité de tromper les mesures d&rsquo;authentification, le développement d&rsquo;attaques innovantes basées sur l&rsquo;identité (phishing de haute qualité, voix modifiée, etc.) et la capacité à exploiter les données et les vulnérabilités au sein des systèmes et des politiques IAM. On peut également craindre une prise de décision biaisée dans l&rsquo;octroi des accès ou encore la gestion des accès d&rsquo;une IA qui doit être interconnectée de toute part. Ces risques sont également complétés par les <strong>risques inhérents à l’IA</strong> : corruption des données en sortie, vol d&rsquo;informations en comprenant les limites/faiblesses du modèle IA, possibilité de tromper la capacité de reconnaissance de l&rsquo;IA… Ces risques ont été abordés de manière plus approfondie dans un autre article que nous vous conseillons : <a href="https://www.riskinsight-wavestone.com/2024/03/securiser-lia-les-nouveaux-enjeux-de-cybersecurite/">Sécuriser l’IA : Les nouveaux Enjeux de Cybersécurité</a>.</p>
<p style="text-align: justify;">En raison des risques associés, du manque de réglementation, du rôle fondamental de l&rsquo;IAM et d’une forte dépendance au contexte de chaque entreprise, la tendance actuelle en matière d&rsquo;IA dans l&rsquo;IAM penche davantage vers la <strong>suggestion et l&rsquo;aide à la décision</strong> plutôt que vers une prise de décision autonome, <strong><u>mais pour combien de temps </u>? L&rsquo;émergence rapide de l&rsquo;IA et son intégration de plus en plus fréquente dans notre paysage amènent à se demander combien de temps nous avons avant de devoir faire confiance à l&rsquo;IA pour avoir le bon niveau de réactivité, de détection et de résolution… pour faire face à l&rsquo;IA. </strong></p>
<p> </p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/03/lintelligence-artificielle-une-revolution-pour-liam/">L’intelligence artificielle, une révolution pour l’IAM ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/03/lintelligence-artificielle-une-revolution-pour-liam/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>IA : Découvrez les 5 questions les plus fréquemment posées par nos clients ! </title>
		<link>https://www.riskinsight-wavestone.com/2023/11/ia-decouvrez-les-5-questions-les-plus-frequemment-posees-par-nos-clients/</link>
					<comments>https://www.riskinsight-wavestone.com/2023/11/ia-decouvrez-les-5-questions-les-plus-frequemment-posees-par-nos-clients/#respond</comments>
		
		<dc:creator><![CDATA[Florian Pouchet]]></dc:creator>
		<pubDate>Wed, 08 Nov 2023 11:00:00 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[attaques]]></category>
		<category><![CDATA[chatgpt]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[réglementation]]></category>
		<category><![CDATA[risques]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=21776</guid>

					<description><![CDATA[<p>L’arrivée de l’intelligence artificielle générative (GenAI) dans le monde des entreprises marque un tournant dans l’histoire du numérique. Cela se manifeste par des outils novateurs comme ChatGPT d’OpenAI (qui a su s’implanter dans Bing sous le nom de « Bing Chat »,...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2023/11/ia-decouvrez-les-5-questions-les-plus-frequemment-posees-par-nos-clients/">IA : Découvrez les 5 questions les plus fréquemment posées par nos clients ! </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">L’arrivée de l’intelligence artificielle générative (<em>GenAI</em>) dans le monde des entreprises marque un tournant dans l’histoire du numérique. Cela se manifeste par des outils novateurs comme ChatGPT d’OpenAI (qui a su s’implanter dans Bing sous le nom de « Bing Chat », exploitant le modèle de langage GPT-4) et Copilot de Microsoft 365. Ces technologies, qui étaient auparavant de simples sujets d’expérimentation et faisaient l’actualité dans les médias, sont désormais au cœur des entreprises, redéfinissant les workflows et dessinant la trajectoire future de secteurs entiers.</p>
<p style="text-align: justify;">Bien qu’il y ait eu des avancées significatives en la matière, il existe également des défis. Par exemple, des données sensibles de Samsung ont été exposées sur ChatGPT par des employés (l’intégralité du code source d’un programme de téléchargement d’une base de données)<a href="#_ftn1" name="_ftnref1">[1]</a>. Pour ne rien arranger, ChatGPT [OpenAI], a subi une faille de sécurité qui a touché plus de 100 000 utilisateurs entre juin 2022 et mai 2023, et les informations d’identification compromises sont désormais échangées sur le <em>Dark Web</em><a href="#_ftn2" name="_ftnref2">[2]</a>.</p>
<p style="text-align: justify;">Ainsi, il n’est par surprenant qu’il y ait à la fois de l’enthousiasme et de la prudence à l’égard du potentiel de l’IA générative. Compte tenu de ces complexités, il est compréhensible que de nombreuses personnes soient confrontées à la difficulté de déterminer l’approche optimale de l’IA. Dans cette optique, cet article cherche à répondre aux questions les plus posées par nos clients.</p>
<p> </p>
<h2 style="text-align: justify;"><span style="color: #9e189e;"><span style="color: #6c29ab;">Question </span><span style="color: #643d87;"><span style="color: #6c29ab;">1 : L’IA</span> <span style="color: #6c29ab;">générative n’est-elle qu’un effet de mode</span> <span style="color: #6c29ab;">? </span></span></span></h2>
<p style="text-align: justify;">L’IA est un ensemble de théories et de techniques mises en œuvre afin de créer des machines capables de simuler les fonctions cognitives de l’intelligence humaine (vision, écriture, mouvement…). Un sous-domaine de l’IA, particulièrement intéressant, est « l’IA générative ». Elle peut être définie comme une discipline utilisant des algorithmes avancés, notamment les réseaux de neurones artificiels, pour <strong>générer de manière autonome du contenu, </strong>qu’il s’agisse de textes, d’images ou de musique. Au-delà du <em>chatbot</em> bancaire qui répondant à vos interrogations, l’IA générative ne se limite pas à reproduire nos capacités de manière impressionnante, elle les améliore dans certains cas.</p>
<p style="text-align: justify;">Notre observation du marché indique que : la portée de l’IA générative est large et profonde. Elle contribue à divers domaines tels que la création de contenu, l’analyse de données, la prise de décision, le support client et même la cybersécurité (par exemple, en identifiant des structures de données anormales pour contrer les menaces). Nous avons identifié trois domaines dans lesquels l’IA générative est particulièrement utile.</p>
<p> </p>
<p style="text-align: justify;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-21789" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-1.png" alt="" width="605" height="338" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-1.png 605w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-1-342x191.png 342w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-1-71x39.png 71w" sizes="auto, (max-width: 605px) 100vw, 605px" /></p>
<h3> </h3>
<h3>Personnalisation du marketing et de l’expérience client</h3>
<p style="text-align: justify;">L’IA générative permet de mieux comprendre les comportements et les préférences des clients. En analysant les modèles de données, elle permet aux entreprises d’élaborer des messages et des visuels sur mesure, améliorant ainsi l’engagement et garantissant des interactions personnalisées.</p>
<h3>Solutions no-code et amélioration du support client</h3>
<p style="text-align: justify;">Dans un monde numérique en constante évolution, les concepts de solutions no-code et d’amélioration du service client sont de plus en plus mis en avant. Bouygues Telecom est un bon exemple d’entreprise exploitant des outils avancés. Ils analysent activement les interactions vocales enregistrées lors de conversations entre les conseillers et les clients, dans le but d’améliorer la relation client<a href="#_ftn3" name="_ftnref3">[3]</a>. Dans le même registre, Tesla utilise l’outil d’IA « <a href="https://www.youtube.com/watch?v=1mP5e5-dujg">Air AI </a>» pour une interaction fluide avec les clients, qui permet de gérer les appels commerciaux avec des clients potentiels, allant même jusqu’à programmer des essais de conduite.  </p>
<p style="text-align: justify;">En ce qui concerne la programmation, une expérience intéressante menée par l’un de nos clients se démarque. Impliquant 50 développeurs, le test a révélé que 25% des suggestions de code générées par l’IA ont été acceptées, entraînant une augmentation de 10% de la productivité. Cependant, il est encore tôt pour conclure sur l’efficacité réelle de l’IA générative en matière de programmation, mais les premiers résultats sont prometteurs et devraient s’améliorer. De plus, le problème lié aux droits de propriété intellectuel concernant le code généré par l’IA demeure un sujet de discussion.</p>
<h3>Veille documentaire et outil de recherche</h3>
<p style="text-align: justify;">L’utilisation de l’IA en tant qu’outil de recherche peut permettre de gagner des heures de travail, notamment dans les domaines où les corpus réglementaires et documentaires sont vastes (ex : secteur financier). Chez Wavestone, nous avons développé en interne, deux outils d’IA. Le premier, CISO GPT, permet aux utilisateurs de poser des questions spécifiques sur la sécurité dans leur langue maternelle. Une fois la question posée, l’outil parcourt la documentation afin d’extraire et de présenter les informations pertinentes. Le second outil, la bibliothèque de références GPT, fournit des CV d’employés de Wavestone ainsi que des références relatives à des missions antérieures pour la rédaction de propositions commerciales.</p>
<p style="text-align: justify;">Cependant, bien que des outils comme ChatGPT (qui utilise des données provenant de bases de données publiques) soient indéniablement bénéfiques, c’est lorsque les entreprises exploitent leurs propres données qu’elles peuvent changer la donne. Pour cela, les entreprises doivent intégrer des capacités d’IA générative en interne ou mettre en place des systèmes assurant la protection de leurs données (comme des solutions cloud telles qu’Azure OpenAI ou des modèles propriétaires). <strong>Selon nous, l’IA générative vaut plus que le simple buzz qui l’entoure et est destinée à s’installer durablement.</strong> Il existe de réelles applications commerciales et une véritable valeur ajoutée, mais également des risques de sécurité. Votre entreprise doit initier cette dynamique pour pouvoir mettre en œuvre des projets d’IA générative de manière sécurisée.</p>
<p> </p>
<h2 style="text-align: justify;"><span style="color: #6c29ab;">Question 2 : Quelle est la réaction du marché à l’utilisation de ChatGPT ?</span></h2>
<p style="text-align: justify;">Pour approfondir le point de vue de ceux qui sont en première ligne en matière de cybersécurité, nous avons demandé aux CISO de nos clients leur avis sur les implications et les opportunités de l’IA générative. Par conséquent, le graphique ci-dessous illustre les opinions des CISO sur le sujet.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-21791" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-2.png" alt="" width="605" height="305" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-2.png 605w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-2-379x191.png 379w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-2-71x36.png 71w" sizes="auto, (max-width: 605px) 100vw, 605px" /></p>
<p style="text-align: justify;">Selon notre enquête, les retours des CISO peuvent être regroupés en trois catégories distinctes :</p>
<h3>Les pragmatiques (65%)</h3>
<p style="text-align: justify;">La plupart de nos répondants reconnaissent les risques potentiels de fuite de données avec ChatGPT, mais les assimilent aux risques rencontrés sur les forums ou lors d’échanges sur des plateformes telles que Stack Overflow (pour les développeurs). Ils estiment que le risque de fuites de données n’a pas changé de manière significative avec ChatGPT. Cependant, le buzz actuel justifie des campagnes de sensibilisation dédiées pour souligner l’importance de ne pas utiliser des données spécifiques à l’entreprise ou des données sensibles.</p>
<h3>Les visionnaires (25%)</h3>
<p style="text-align: justify;">Un quart des personnes interrogées considère ChatGPT comme un outil révolutionnaire. Ils ont constaté son adoption dans des départements tels que la communication et les services juridiques. Ils ont pris des mesures proactives pour comprendre son utilisation (quelles données, quel cas d’usage) et ont ensuite établi un ensemble de lignes directrices. Il s’agit d’une approche plus collaborative pour définir un cadre d’utilisation.</p>
<h3>Les sceptiques (10%)</h3>
<p style="text-align: justify;">Une partie du marché émet des réserves concernant ChatGPT. Pour eux, il s’agit d’un outil trop facile à utiliser à mauvais escient, qui fait l’objet d’une attention médiatique excessive et qui comporte des risques inhérents selon divers secteurs d’activité. Ainsi, en fonction de votre activité, cela peut être pertinent lorsque vous jugez que le risque de fuite de données et de perte de propriété intellectuelle est trop élevé par rapport aux bénéfices potentiels.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #9e189e;"><span style="color: #6c29ab;">Question</span> <span style="color: #6c29ab;">3 : Quels sont les risques liés à l’IA générative</span> <span style="color: #6c29ab;">? </span></span></h2>
<p style="text-align: justify;">En évaluant les différents points de vue sur l’IA générative au sein des organisations, nous avons classé les préoccupations en quatre catégories distinctes de risques, du moins grave <span style="color: #000000;">au</span> plus critique :</p>
<h3>Altération et dénaturation du contenu</h3>
<p style="text-align: justify;">Les organisations utilisant l’IA générative doivent protéger l’intégrité de leurs systèmes intégrés. Lorsque l’IA est manipulée de manière malveillante, cela peut conduire à la déformation de contenu authentique, conduisant à la désinformation. Cela peut produire des résultats biaisés, ce qui nuit à la fiabilité et à l’efficacité des solutions basées sur l’IA. Plus spécifiquement, pour les grands modèles de langage (<em>Large Language Models</em> – LLM) comme l’IA générative, il existe une préoccupation notable concernant l’injection d’invite (<em>prompt injection</em>). Pour atténuer cela, les organisations devraient :</p>
<ol style="text-align: justify;">
<li>Développer un système de classification des entrées (<em>inputs</em>) malveillantes qui évalue la légitimité de l’entrée d’un utilisateur, en veillant à ce que seuls les prompts légitimes soient traités.</li>
<li>Limiter la taille et modifier le format des entrées utilisateur. En ajustant ces paramètres, les chances de réussite de l’injection d’invite sont considérablement réduites.</li>
</ol>
<h3>Menaces de tromperie et de manipulation</h3>
<p style="text-align: justify;">Même si une organisation décide d’interdire l’utilisation de l’IA générative, elle doit rester vigilante face à l’augmentation potentielle de l’hameçonnage, des escroqueries et des attaques de type « <em>deepfake</em> ». Bien que ces menaces existent depuis un certain temps dans le domaine de la cybersécurité, l’introduction de l’IA générative intensifie leur fréquence et leur sophistication.</p>
<p style="text-align: justify;">Ce potentiel est clairement illustré par une série d’exemples frappants. Ainsi, Deutsche Telekom a publié une <a href="https://www.youtube.com/watch?v=F4WZ_k0vUDM">vidéo</a> de sensibilisation montrant la capacité de l’IA générative à vieillir l’image d’une jeune fille à partir de photos/vidéos disponibles sur les réseaux sociaux.</p>
<p style="text-align: justify;">De plus, HeyGen est un logiciel d’IA générative capable de doubler des <a href="https://www.youtube.com/watch?v=gQYm_aia5No">vidéos</a> dans plusieurs langues tout en conservant la voix originale. Il est désormais possible d’entendre Donald Trump s’exprimer en français ou Charles de Gaulle converser en portugais.</p>
<p style="text-align: justify;">Ces exemples illustrent clairement comment les attaquants peuvent exploiter ces outils pour imiter la voix d’un PDG, élaborer des emails d’hameçonnage convaincants ou créer des vidéos « <em>deepfake</em> » d’un réalisme saisissant, ce qui intensifie les défis en matière de détection et de défense.</p>
<p style="text-align: justify;">Pour plus d’informations sur l’utilisation de l’IA générative par les cybercriminels, consultez <a href="https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/">l’article</a> dédié sur RiskInsight.</p>
<h3>Confidentialité des données et protection de la vie privée</h3>
<p style="text-align: justify;">Si les organisations décident d’autoriser l’utilisation de l’IA générative, elles doivent être conscientes que les immenses capacités de traitement de données offertes par cette technologie peuvent engendrer des risques non négligeables en matière de confidentialité et de protection de la vie privée. Ces modèles, bien qu’excellents dans la génération de contenu, sont susceptibles de divulguer des données d’entraînement sensibles ou de reproduire des contenus soumis au droit d’auteur.</p>
<p style="text-align: justify;">De plus, en ce qui concerne la protection des données personnelles, si l’on se réfère à la politique de confidentialité de ChatGPT, le chatbot est susceptible de collecter des informations comme les détails du compte, les données d’identification provenant de votre appareil ou navigateur, ainsi que les informations saisies dans le chatbot (qui pourraient être utilisées pour entraîner l’IA générative)<a href="#_ftn4" name="_ftnref4">[4]</a>. Selon l’article 3(a) des conditions générales d’Open AI, les entrées et sorties (<em>inputs/outputs</em>), appartiennent à l’utilisateur. Cependant, étant donné que ces données sont stockées et enregistrées par OpenAI, des préoccupations émergent quant à la propriété intellectuelle et aux éventuelles fuites de données (comme mentionné supra dans le cas de Samsung). Ces risques peuvent nuire considérablement à la réputation et à l’activité d’une organisation.</p>
<p style="text-align: justify;">C’est pour ces raisons qu’OpenAI a mis en place l’abonnement ChatGPT Business, proposant un contrôle accru sur les données de l’organisation (avec, par exemple, le chiffrement AES-256 pour les données au repos, TLS 1.2+ pour les données en transit, l’authentification SSO SAML et une console d’administration dédiée)<a href="#_ftn5" name="_ftnref5">[5]</a>. Mais en réalité, tout dépend de la confiance que vous accordez à votre fournisseur et du respect des engagements contractuels. De plus, il existe aussi la possibilité de développer ou de former des modèles d’IA internes en utilisant les données de l’organisation pour une solution adaptée aux besoins spécifiques.</p>
<h3>Vulnérabilités des modèles et attaques</h3>
<p style="text-align: justify;">Alors que de plus en plus d’organisations utilisent des modèles d’apprentissage automatique, il est essentiel de comprendre que ces modèles ne sont pas infaillibles. Ils peuvent être confrontés à des menaces qui affectent leur fiabilité, leur précision ou leur confidentialité, comme cela sera expliqué dans la section suivante.  </p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #6c29ab;">Question 4 : Comment un modèle d’IA peut-il être attaqué ?</span></h2>
<p style="text-align: justify;">L’IA introduit des complexités supplémentaires qui s’ajoutent aux vulnérabilités existantes du réseau et de l’infrastructure. Il est crucial de noter que ces complexités ne sont pas spécifiques à l’IA générative, mais qu’elles sont présentes dans divers modèles d’IA. Comprendre ces modèles d’attaque est essentiel pour renforcer les défenses et garantir le déploiement sécurisé de l’IA. Il existe trois principaux modèles d’attaque (liste non exhaustive) :</p>
<p style="text-align: justify;">Pour des informations détaillées sur les vulnérabilités des grands modèles de langage et de l’IA générative, référez-vous au <a href="https://owasp.org/www-project-top-10-for-large-language-model-applications/assets/PDF/OWASP-Top-10-for-LLMs-2023-v05.pdf">“OWASP Top 10 for LLM”</a> de l’Open Web Application Security Project (OWASP).</p>
<h3>Attaques par évasion</h3>
<p style="text-align: justify;">Ces attaques ciblent l’IA en manipulant les entrées des algorithmes d’apprentissage automatique afin d’introduire des perturbations mineures qui entraînent des modifications significatives des sorties. De telles manipulations peuvent amener le modèle d’IA à classer de manière inexacte ou à ignorer certaines entrées. Un exemple classique serait de modifier des panneaux de signalisation pour tromper les voitures autonomes (identifier un panneau « stop » comme un panneau « priorité »). Cependant, les attaques par évasion peuvent également s’appliquer à la reconnaissance faciale. Une personne pourrait utiliser des motifs de maquillage subtils, des autocollants placés de manière stratégique, des lunettes spéciales ou des conditions d’éclairage spécifiques pour tromper le système, entraînant une mauvaise identification.</p>
<p style="text-align: justify;">En outre, les attaques par évasion ne se limitent pas à la manipulation visuelle. Dans les systèmes de commande vocale, les attaquants peuvent intégrer des commandes malveillantes dans du contenu audio ordinaire, de manière à ce qu’elles soient imperceptibles pour les humains mais reconnaissables par les assistants vocaux. Par exemple, des chercheurs ont démontré l’existence de techniques audio contradictoires ciblant des systèmes de reconnaissance vocale utilisés dans des enceintes intelligentes, telles qu’Alexa d’Amazon. Ainsi, une chanson ou une publicité apparemment ordinaire pourrait contenir une commande dissimulée ordonnant à l’assistant vocal d’effectuer un achat non autorisé ou de divulguer des informations personnelles, le tout à l’insu de l’utilisateur<a href="#_ftn6" name="_ftnref6">[6]</a>.</p>
<h3>Empoisonnement</h3>
<p style="text-align: justify;">L’empoisonnement est un type d’attaque dans lequel l’attaquant modifie les données ou le modèle pour influencer le comportement de l’algorithme d’apprentissage automatique (par exemple, pour saboter ses résultats ou insérer une porte dérobée). C’est comme si l’attaquant conditionnait l’algorithme en fonction de ses motivations. Ces attaques sont également appelées : attaques causatives.</p>
<p style="text-align: justify;">Conformément à cette définition, les attaquants utilisent des attaques par empoisonnement pour orienter un algorithme d’apprentissage automatique vers un résultat souhaité. Ils introduisent des échantillons malveillants dans l’ensemble des données d’apprentissage, ce qui conduit l’algorithme à se comporter de manière imprévisible. Un exemple connu est celui du chatbot de Microsoft, TAY, qui a été dévoilé sur Twitter en 2016. Conçu pour imiter les adolescents américains et converser avec eux, il s’est rapidement mis à agir comme un activiste d’extrême droite<a href="#_ftn7" name="_ftnref7">[7]</a>. Cela souligne le fait que, dans leurs premières phases d’apprentissage, les systèmes d’IA sont sensibles aux données qu’ils rencontrent. Les utilisateurs de 4Chan ont intentionnellement empoisonné les données de TAY avec leur humour et leurs conversations controversées.</p>
<p style="text-align: justify;">Toutefois, l’empoisonnement des données peut également être involontaire et résulter de préjugés inhérents aux sources de données ou de préjugés inconscients de ceux qui organisent les ensembles de données. Cela s’est manifesté lorsque les premières technologies de reconnaissance faciale ont eu des difficultés à identifier les teints de peau plus foncés. Il est donc nécessaire de disposer de données d’entraînement diversifiées et non-biaisées pour se prémunir contre les distorsions délibérées ou involontaires des données.</p>
<p style="text-align: justify;">Enfin, la prolifération en ligne d’algorithmes d’IA en open source, tels que ceux présents sur des plateformes comme Hugging Face, présente un autre risque. Les acteurs malveillants pourraient modifier et empoisonner ces algorithmes pour favoriser des biais spécifiques, conduisant des développeurs peu méfiants à intégrer par inadvertance des algorithmes corrompus dans leurs projets, perpétuant ainsi les biais ou les intentions malveillantes.</p>
<h3>Attaque oracle</h3>
<p style="text-align: justify;">Ce type d’attaque consiste à tester/sonder un modèle avec une série d’entrées soigneusement conçues, tout en analysant les sorties. Grâce à l’application de diverses stratégies d’optimisation et à des requêtes répétées, les attaquants peuvent déduire des informations confidentielles, mettant ainsi en péril la vie privée des utilisateurs, la sécurité globale du système où les règles de fonctionnement internes.</p>
<p style="text-align: justify;">Un exemple pertinent est celui du <em>chatbot</em> Bing de Microsoft, alimenté par l’IA. Peu après son lancement, un étudiant de Stanford, Kevin Liu, a exploité le <em>chatbot</em> à l’aide d’une attaque par injection d’invite, l’amenant à révéler ses directives internes et son nom de code « Sidney », alors que l’une des règles fondamentales du système était de ne jamais révéler ce type d’informations<a href="#_ftn8" name="_ftnref8">[8]</a>.</p>
<p style="text-align: justify;">Un précédent <a href="https://www.riskinsight-wavestone.com/2023/06/attaquer-une-ia-un-exemple-concret/">article</a> de RiskInsight présentait un exemple d’attaque oracle et par évasion, ainsi que d’autres types d’attaques qui, bien que non spécifiques à l’IA, représentent néanmoins un risque important pour ces technologies.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #6c29ab;">Question 5 : Quel est l’état de la réglementation ? Comment l’IA générative est-elle réglementée ? </span></h2>
<p style="text-align: justify;">Depuis notre <a href="https://www.riskinsight-wavestone.com/2022/06/lintelligence-artificielle-bientot-reglementee/">article</a> de 2022, il y a eu des <span style="color: #000000;">développements</span> significatifs dans la réglementation de l’IA à travers le monde.</p>
<h3 style="text-align: justify;">L’Union Européenne (UE)</h3>
<p style="text-align: justify;">L’objectif de la stratégie numérique de l’UE est de réguler l’IA, en garantissant son développement innovant et son utilisation, tout en assurant la sécurité et les droits fondamentaux des individus et des entreprises vis-à-vis de l’IA. Le 14 juin 2023, le Parlement européen a adopté et amendé la proposition de règlement sur l’Intelligence Artificielle, qui catégorise les risques liés à l’IA en quatre niveaux distincts : inacceptable, élevé, limité et minimal<a href="#_ftn9" name="_ftnref9">[9]</a>.</p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-21793" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-3.png" alt="" width="605" height="301" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-3.png 605w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-3-384x191.png 384w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-3-71x35.png 71w" sizes="auto, (max-width: 605px) 100vw, 605px" /></p>
<h3 style="text-align: justify;">États-Unis</h3>
<p style="text-align: justify;">Le Bureau de la politique scientifique et technologique de la Maison Blanche, guidé par les perspectives de diverses parties prenantes, a présenté le « <em>Blueprint for an AI Bill of Rights</em> »<a href="#_ftn10" name="_ftnref10">[10]</a>. Bien que non contraignant, ce document souligne l’engagement en faveur des droits civiques et des valeurs démocratiques dans la gouvernance et le déploiement de l’IA.</p>
<h3 style="text-align: justify;">Chine</h3>
<p style="text-align: justify;">Compte tenu des préoccupations croissantes en matière d’IA, l’administration chinoise du cyberespace a proposé des mesures administratives pour les services d’intelligence artificielle générative. Visant à protéger les intérêts nationaux et à préserver les droits des utilisateurs, ces mesures offrent une approche holistique de la gouvernance de l’IA. Elles ont pour but d’atténuer les risques potentiels associés aux services d’intelligence artificielle générative, tels que la diffusion de fausses informations, les violations de la vie privée, les atteintes à la propriété intellectuelle et la discrimination. Toutefois, la portée territoriale de ces mesures pourrait poser problème aux fournisseurs étrangers de services d’IA en Chine<a href="#_ftn11" name="_ftnref11">[11]</a>.</p>
<h3 style="text-align: justify;">Royaume-Uni</h3>
<p style="text-align: justify;">Le Royaume-Uni emprunte une voie distincte, en mettant l’accent sur une approche pro-innovation dans sa stratégie nationale en matière d’IA. Le Département pour la Science, l’Innovation et la Technologie a publié un livre blanc intitulé « <em>AI Regulation: A Pro-Innovation Approach</em> », axé sur le développement par le biais de réglementations minimales et d’investissements accrus dans l’IA. Le cadre britannique ne prescrit pas de règles ou de niveaux de risque à des secteurs ou technologies spécifiques. Il se focalise plutôt sur la réglementation des résultats générés par l’IA dans des applications précises. Cette approche est guidée par cinq principes fondamentaux : la sûreté &amp; la sécurité, la transparence, l’équité, la responsabilité &amp; la gouvernance, et la contestabilité &amp; la réparation<a href="#_ftn12" name="_ftnref12">[12]</a>.</p>
<h3 style="text-align: justify;">Cadres de référence</h3>
<p style="text-align: justify;">Au-delà des règlementations formelles, plusieurs documents d’orientation existent, tels que le cadre de gestion des risques associés à l’IA du NIST et la norme ISO/IEC 23894. Ces textes fournissent des recommandations pour la gestion des risques liés à l’IA, se concentrant sur des critères destinés à instaurer la confiance dans les algorithmes. En fin de compte, l’enjeu ne se limite pas à la cybersécurité, il s’agit aussi et surtout de confiance.</p>
<p> </p>
<p><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-21795" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-4.png" alt="" width="605" height="340" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-4.png 605w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-4-340x191.png 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/11/Photo-4-69x39.png 69w" sizes="auto, (max-width: 605px) 100vw, 605px" /></p>
<p> </p>
<p style="text-align: justify;">Avec un paysage réglementaire aussi vaste, les organisations peuvent se sentir dépassées. Pour les aider, nous suggérons de se concentrer sur des considérations clés lors de l’intégration de l’IA dans leurs opérations, afin d’établir une feuille de route pour atteindre la conformité.</p>
<ul style="text-align: justify;">
<li><strong>Identifier tous les systèmes d’IA existants</strong> au sein de l’organisation et établir une procédure ou un protocole pour identifier les nouvelles initiatives en matière d’IA.</li>
<li><strong>Évaluer les systèmes</strong> en utilisant des critères dérivés de cadres de référence, tels que le NIST.</li>
<li><strong>Classer les systèmes d’IA selon la classification du règlement sur l’IA</strong> de l’UE (inacceptable, élevé, limité, minimal).</li>
<li><strong>Déterminer l’approche de gestion des risques</strong> adaptée à chaque catégorie.</li>
</ul>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #6c29ab;">Question bonus : Cela étant dit, que puis-je faire maintenant ? </span></h2>
<p style="text-align: justify;">À mesure que le paysage numérique évolue, Wavestone met l’accent sur une approche globale de l’intégration de l’IA générative. Nous préconisons qu’un déploiement d’IA fasse l’objet d’une analyse de sensibilité rigoureuse, allant de l’interdiction pure et simple à une mise en œuvre guidée et une conformité stricte. Pour les systèmes classés à haut risque, il est primordial d’appliquer une analyse de risque détaillée basée sur les normes établies par l’ENISA et le NIST. Bien que l’IA introduise une couche sophistiquée, les principes fondamentaux de l’hygiène informatique ne doivent jamais être négligés. Nous recommandons l’approche suivante :</p>
<ul style="text-align: justify;">
<li><span style="color: #9e189e;"><strong><em><span style="color: #6c29ab;">Piloter &amp; Valider</span> <span style="color: #6c29ab;">:</span></em> </strong></span>commencez par évaluer le potentiel de transformation de l’IA générative dans votre contexte organisationnel. De plus, il est essentiel de comprendre les outils à votre disposition, de s’orienter parmi les diverses options disponibles et de prendre des décisions éclairées en fonction des besoins spécifiques et des cas d’utilisation.</li>
<li><span style="color: #6c29ab;"><strong><em>Perspective Stratégique </em>:</strong></span> Selon notre enquête auprès des CISO de nos clients, déterminez le niveau idéal d’adoption de l’IA pour votre entreprise. Vos aspirations correspondent-elles aux repères d’adoption de 10%, 65% ou 25% ?</li>
<li><span style="color: #6c29ab;"><strong><em>Atténuation des Risques :</em> </strong></span>Ancrez votre stratégie dans une évaluation des risques approfondie, en adéquation avec le niveau d’adoption de l’IA que vous envisagez.</li>
<li><span style="color: #6c29ab;"><strong><em>Élaboration de Politiques :</em> </strong></span>Basez-vous sur votre analyse avantages-risques pour élaborer des politiques d’IA solides et agiles.</li>
<li><span style="color: #6c29ab;"><strong><em>Apprentissage Continu &amp; Vigilance Réglementaire :</em></strong> </span>Maintenez un engagement constant pour rester au fait de l’évolution du paysage réglementaire, et tenez-vous informé des derniers outils, méthodes d’attaque et stratégies de défense.</li>
</ul>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="https://www.rfi.fr/fr/technologies/20230409-des-donn%C3%A9es-sensibles-de-samsung-divulgu%C3%A9s-sur-chatgpt-par-des-employ%C3%A9s">Des données sensibles de Samsung divulgués sur ChatGPT par des employés (rfi.fr)</a></p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> <a href="https://www.phonandroid.com/chatgpt-100-000-comptes-pirates-se-retrouvent-en-vente-sur-le-dark-web.html">https://www.phonandroid.com/chatgpt-100-000-comptes-pirates-se-retrouvent-en-vente-sur-le-dark-web.html</a></p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> <a href="https://www.cio-online.com/actualites/lire-bouygues-telecom-mise-sur-l-ia-generative-pour-transformer-sa-relation-client-14869.html">Bouygues Telecom mise sur l&rsquo;IA générative pour transformer sa relation client (cio-online.com)</a></p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> <a href="https://www.bitdefender.fr/blog/hotforsecurity/quelles-donnees-chat-gpt-collecte-a-votre-sujet-et-pourquoi-est-ce-important-pour-votre-confidentialite-numerique/">Quelles données Chat GPT collecte à votre sujet et pourquoi est-ce important pour votre vie privée en ligne ? (bitdefender.fr)</a></p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> <a href="https://www.lemondeinformatique.fr/actualites/lire-openai-lance-un-chatgpt-plus-securise-pour-les-entreprises-91387.html">OpenAI lance un ChatGPT plus sécurisé pour les entreprises &#8211; Le Monde Informatique</a></p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> <a href="https://ieeexplore.ieee.org/document/8747397">Selective Audio Adversarial Example in Evasion Attack on Speech Recognition System | IEEE Journals &amp; Magazine | IEEE Xplore</a></p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> <a href="https://www.washingtonpost.com/news/the-intersect/wp/2016/03/25/not-just-tay-a-recent-history-of-the-internets-racist-bots/">Not just Tay: A recent history of the Internet’s racist bots &#8211; The Washington Post</a></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> <a href="https://www.phonandroid.com/microsoft-comment-un-etudiant-a-oblige-lia-de-bing-a-reveler-ses-secrets.html">Microsoft : comment un étudiant a obligé l&rsquo;IA de Bing à révéler ses secrets (phonandroid.com)</a></p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> <a href="https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf">Artificial intelligence act (europa.eu)</a></p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> <a href="https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf">https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf</a></p>
<p style="text-align: left;"><a href="#_ftnref11" name="_ftn11">[11] </a><a href="https://www.china-briefing.com/news/china-to-regulate-deep-synthesis-deep-fake-technology-starting-january-2023/">https://www.china-briefing.com/news/china-to-regulate-deep-synthesis-deep-fake-technology-starting-january-2023/</a></p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a> <a href="https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper">A pro-innovation approach to AI regulation &#8211; GOV.UK (www.gov.uk)</a></p>
<p style="text-align: justify;"> </p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2023/11/ia-decouvrez-les-5-questions-les-plus-frequemment-posees-par-nos-clients/">IA : Découvrez les 5 questions les plus fréquemment posées par nos clients ! </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2023/11/ia-decouvrez-les-5-questions-les-plus-frequemment-posees-par-nos-clients/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>L&#8217;industrialisation de l&#8217;IA par les cybercriminels : faut-il vraiment s&#8217;inquiéter ?</title>
		<link>https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/</link>
					<comments>https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/#respond</comments>
		
		<dc:creator><![CDATA[Gérôme Billois]]></dc:creator>
		<pubDate>Tue, 10 Oct 2023 16:46:58 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[industrialisation]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=21445</guid>

					<description><![CDATA[<p>  Retour en 2021. Une vidéo de Tom Cruise faisant disparaître une pièce de monnaie devient virale. C&#8217;est l&#8217;un des premiers buzz des vidéos deepfake ; des vidéos qui amusent et apeurent (à raison) les internautes. Avec les années, les...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/">L&rsquo;industrialisation de l&rsquo;IA par les cybercriminels : faut-il vraiment s&rsquo;inquiéter ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p> </p>
<p><span data-contrast="auto">Retour en 2021. Une vidéo de Tom Cruise faisant disparaître une pièce de monnaie devient virale. C&rsquo;est l&rsquo;un des premiers buzz des vidéos deepfake ; des vidéos qui amusent et apeurent (à raison) les internautes. Avec les années, les intelligences artificielles sous toutes ses formes se sont perfectionnées, si bien qu&rsquo;il est possible aujourd&rsquo;hui par exemple de faire de la traduction en temps réel ou de générer des vidéos et audio de personnalités publiques plus vrais que nature.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-contrast="auto">Le crime progressant avec les techniques et les technologies, l’intégration de l&rsquo;IA au sein de l’arsenal du cybercriminel était somme toute assez naturelle et prévisible. Initialement utilisée pour des opérations simples comme le décryptage des captchas ou la création des premiers </span><i><span data-contrast="auto">deep fakes, </span></i><span data-contrast="auto">l’IA est désormais</span> <span data-contrast="auto">utilisée pour un éventail beaucoup plus large d&rsquo;activités malveillantes.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-contrast="auto">Dans la continuité de notre série sur la cybersécurité et l’IA (</span><a href="https://www.riskinsight-wavestone.com/2023/06/attaquer-une-ia-un-exemple-concret/"><i><span data-contrast="none">Attaquer une IA : un exemple concret</span></i></a><i><span data-contrast="auto">,</span></i> <a href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/"><i><span data-contrast="none">Quand les mots deviennent des armes : prompt Injection et Intelligence artificielle</span></i></a><span data-contrast="auto"> et </span><a href="https://www.riskinsight-wavestone.com/2023/08/chatgpt-devsecops-quels-sont-les-nouveaux-risques-cybersecurite-induits-par-lutilisation-de-lia-par-les-developpeurs/"><i><span data-contrast="none">ChatGPT &amp; DevSecOps – Quels sont les nouveaux risques cybersécurité induits par l’utilisation de l’IA par les développeurs</span></i></a><span data-contrast="auto">), nous explorons ici l’instrumentalisation de l’IA par les cybercriminels. Si l&rsquo;IA permet une progression de la qualité des attaques cyber et de leur quantité, son utilisation par les cybercriminels ne remet pas fondamentalement en question le modèle de défense pour les organisations.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h2 aria-level="2"><span data-contrast="none">L’utilisation malveillante de l’IA par les cybercriminels : détournement, marché noir, et </span><i><span data-contrast="none">DeepFake</span></i><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;201341983&quot;:0,&quot;335559738&quot;:40,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h2>
<h3 aria-level="3"><span data-contrast="none">Le détournement des </span><i><span data-contrast="none">Chatbots</span></i><span data-contrast="none"> grand public</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;201341983&quot;:0,&quot;335559738&quot;:40,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">En 2023, impossible de passer à côté de ChatGPT, l’IA générative développée par OpenAI. Avec plus de </span><a href="https://www.20minutes.fr/high-tech/4034128-20230424-chatgpt-fonctionnement-chatbot-coute-pres-700-000-dollars-jour-openai#:~:text=En%20effet%2C%20l'intelligence%20artificielle,33%20centimes%20%C3%A0%20l'entreprise."><span data-contrast="none">1,5 milliards de requêtes par jour</span></a><span data-contrast="auto">, c’est un merveilleux outil, et les cas d’usages sont nombreux. Cette capacité et la valeur ajouté de ce type d’outil est largement exploitable par des attaquants.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Si des mesures de sécurité ont été mises en place afin d’éviter une utilisation détournée à des fins malveillantes (les fameux points de modération), </span><b><span data-contrast="auto">certaines techniques, <span class="TextRun SCXW155738635 BCX0" lang="FR-FR" xml:lang="FR-FR" data-contrast="auto"><span class="NormalTextRun SCXW155738635 BCX0">comme </span><span class="NormalTextRun CommentStart CommentHighlightPipeRest CommentHighlightRest SCXW155738635 BCX0">le </span></span><a class="Hyperlink SCXW155738635 BCX0" href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/" target="_blank" rel="noreferrer noopener"><span class="TextRun Underlined SCXW155738635 BCX0" lang="FR-FR" xml:lang="FR-FR" data-contrast="none"><span class="NormalTextRun CommentHighlightRest SCXW155738635 BCX0" data-ccp-charstyle="Hyperlink">prompt injection</span></span></a></span></b><span class="TextRun SCXW155738635 BCX0" lang="FR-FR" xml:lang="FR-FR" data-contrast="auto"> <span class="NormalTextRun SCXW155738635 BCX0">permettent</span></span><span data-contrast="auto"> de passer entre les mailles. </span><b><span data-contrast="auto">Certains attaquants n’hésitent d’ailleurs pas à partager leurs trouvailles sur les forums criminels.</span></b><span data-contrast="auto"> Ces techniques portent en général sur les </span><i><span data-contrast="auto">bots</span></i><span data-contrast="auto"> les plus utilisés par le grand public : ChatGPT, Google Bard…</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-21467 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image.png" alt="" width="1607" height="848" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image.png 1607w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-362x191.png 362w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-71x37.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-768x405.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-1536x811.png 1536w" sizes="auto, (max-width: 1607px) 100vw, 1607px" /></span></p>
<p style="text-align: center;"><i><span data-contrast="auto">Capture d’écran tirée de l’article de </span></i><a href="https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/?utm_content=256636270&amp;utm_medium=social&amp;utm_source=twitter&amp;hss_channel=tw-721089455193337856"><i><span data-contrast="none">Slahnext</span></i></a></p>
<p style="text-align: justify;"><span data-contrast="auto">Mais d’autres outils, plus puissants, pourraient faire encore plus de dégâts. On peut citer ici </span><a href="https://s2w.inc/"><span data-contrast="none">DarkBert</span></a><span data-contrast="auto">, la création de S2W Inc. Il se présente comme étant la première IA générative entrainée sur des données du dark web. La société assure poursuivre un objectif défensif, en permettant notamment une surveillance du </span><i><span data-contrast="auto">dark web</span></i><span data-contrast="auto"> afin de détecter l’apparition de sites malveillants ou de nouvelles menaces. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Dans </span><a href="https://videopress.com/v/le846tBj"><span data-contrast="none">leur vidéo de démonstration, ils comparent la qualité des réponses</span></a><span data-contrast="auto"> de plusieurs </span><i><span data-contrast="auto">Chatbots</span></i><span data-contrast="auto"> (GPT, Bard, DarkBert) à la question suivante : « </span><i><span data-contrast="auto">quelles sont les dernières attaques en Europe ? ». </span></i><span data-contrast="auto">Dans ce cas précis, Google Bard donne le nom des victimes et une réponse assez détaillée du type d’attaques (en plus de quelques conseils basiques de sécurité), ChatGPT répond qu’il n’a pas la capacité de répondre, tandis que </span><b><span data-contrast="auto">DarkBert est capable de répondre avec les noms, la date exacte et même les jeux de données volées en question</span></b><span data-contrast="auto"> ! Même si dans la réponse qui est faite, les données ne sont pas accessibles, il est tout à fait imaginable, à travers l’utilisation de technique d’attaque oracle (ces attaques qui combinent un ensemble de techniques pour « tirer les vers du nez de l’IA » et contourner son cadre de modération), de faire en sorte que le modèle révèle et communique les jeux de données en question.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-21463 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2.png" alt="" width="4400" height="2471" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2.png 4400w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2-340x191.png 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2-768x431.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2-1536x863.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2-2048x1150.png 2048w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-2-800x450.png 800w" sizes="auto, (max-width: 4400px) 100vw, 4400px" /></span></p>
<p style="text-align: justify;"><span data-contrast="auto">Le risque majeur est que les attaquants réussissent à exploiter la puissance de ces outils à des fins malicieuses, par exemple pour</span><b><span data-contrast="auto"> obtenir du code malveillant, faire rédiger des documents de fraude particulièrement réalistes, ou obtenir des données sensibles.</span></b><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Cependant, l’utilisation des techniques de </span><i><span data-contrast="auto">prompt injection</span></i><span data-contrast="auto"> et Oracle restent (jusqu’à l’apparition d’outils qui permettront de les automatiser) assez chronophage pour les attaquants. En parallèle, les </span><i><span data-contrast="auto">Chatbots</span></i><span data-contrast="auto"> renforcent aussi sans cesse leurs mécanismes de protection et la solidité de leur capacité de modération.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h3 aria-level="3"><span data-contrast="none">Le marché noir des IA criminelles </span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;201341983&quot;:0,&quot;335559738&quot;:40,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p style="text-align: justify;"><b><span data-contrast="auto">Des choses légèrement plus inquiétantes voient le jour : la publication de </span></b><b><i><span data-contrast="auto">Chatbot</span></i></b><b><span data-contrast="auto"> d’IA générative purement criminels.</span></b><span data-contrast="auto"> Dans ce cas, les attaquants récupèrent </span><b><span data-contrast="auto">des technologies IA en </span></b><b><i><span data-contrast="auto">open source</span></i></b><b><span data-contrast="auto">, en retire les mesures de sécurité, </span></b><span data-contrast="auto">et publient un modèle « débridé ». </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">On a vu notamment apparaître sur les forums des outils tels que </span><a href="http://fraudgpt/"><b><span data-contrast="none">FraudGPT</span></b></a><b><span data-contrast="auto"> et </span></b><a href="https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/?utm_content=256636270&amp;utm_medium=social&amp;utm_source=twitter&amp;hss_channel=tw-721089455193337856"><b><span data-contrast="none">WormGPT</span></b></a><span data-contrast="auto">. Ces nouveaux </span><i><span data-contrast="auto">bots</span></i><span data-contrast="auto"> permettent donc d’aller plus loin : </span><b><span data-contrast="auto">trouver des vulnérabilités, apprendre à pirater un site, créer des courriels de </span></b><b><i><span data-contrast="auto">phishing</span></i></b><b><span data-contrast="auto">, coder des </span></b><b><i><span data-contrast="auto">malwares</span></i></b><b><span data-contrast="auto">, les automatiser</span></b><span data-contrast="auto"> etc. Les cybercriminels vont jusqu&rsquo;à commercialiser ces modèles, créant ainsi un nouveau marché noir des moteurs d&rsquo;IA générative.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-contrast="auto"> </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> <img loading="lazy" decoding="async" class="aligncenter wp-image-21465 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-3.png" alt="" width="1918" height="840" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-3.png 1918w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-3-437x191.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-3-71x31.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-3-768x336.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/09/MicrosoftTeams-image-3-1536x673.png 1536w" sizes="auto, (max-width: 1918px) 100vw, 1918px" /></span></p>
<p style="text-align: center;"><span data-contrast="auto">Capture d’écran tirée de l’article </span><a href="https://netenrich.com/blog/fraudgpt-the-villain-avatar-of-chatgpt"><span data-contrast="none">Netenrich blog</span></a><span data-contrast="auto"> montrant les différents usages de Fraud Bot.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h3 aria-level="3"><span data-contrast="none">Exploiter la vulnérabilité humaine : les </span><i><span data-contrast="none">DeepFake </span></i><span data-contrast="none">ultraréalistes</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;201341983&quot;:0,&quot;335559738&quot;:40,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">L’inquiétude majeure réside dans l’utilisation accrus de DeepFake ultra réaliste. Vous avez probablement été témoin des photos désormais </span><a href="https://www.sudouest.fr/economie/reseaux-sociaux/c-est-vraiment-effrayant-le-createur-de-la-photo-du-pape-en-doudoune-depasse-par-son-montage-14609008.php"><span data-contrast="none">célèbre du pape en Balenciaga</span></a><span data-contrast="auto"> ou encore de la </span><a href="https://www.linkedin.com/pulse/incroyable-mitterrand-et-chirac-sexpriment-en-anglais-antoine-dumont/?originalSubdomain=fr"><span data-contrast="none">vidéo du débat présidentiel de 88 entre Chirac et Mitterrand</span></a><span data-contrast="auto">, parfaitement doublée en anglais et d’un réalisme bluffant. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Dans le dernier rapport </span><a href="https://media.defense.gov/2023/Sep/12/2003298925/-1/-1/0/CSI-DEEPFAKE-THREATS.PDF"><i><span data-contrast="none">Cybersecurity Information Sheet (CSI), Contextualizing Deepfake Threats to Organizations</span></i></a><span data-contrast="auto"> (Septembre 2023) publié par la NSA, le FBI, CISA relate quelques exemples d’attaques basée sur l’utilisation de DeepFake. Parmi eux, un cas survenu en 2019 au sein d’une filiale britannique du secteur de l’énergie ayant versé $243,000 à cause d’un audio généré par une IA ; les attaquants s’étaient fait passer pour le CEO du groupe, pressant le CEO de la filiale de lui verser cette somme avec la promesse d’un remboursement. En 2023, des cas d’usurpation d’identité par vidéo de CEO ont déjà été signalés. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Ce genre d&rsquo;attaque offre une nouvelle dimension au cybercrime, posant des défis en matière de vérification d&rsquo;identité et soulevant des questions éthiques et légales, notamment sur la diffusion de fausses informations et d&rsquo;usurpation d&rsquo;identité. Elles fragilisent encore plus la vulnérabilité la plus importante en matière de cybersécurité informatique : la faille humaine. Il ne fait aucun doute que les cas de fraude au président et de phishing utilisant des DeepFake se multiplieront ces prochains mois et années.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h3><span data-contrast="none">L’IA comme outil pour les attaquants, pas une révolution pour les défenseurs</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">Il est indéniable que l’utilisation des </span><i><span data-contrast="auto">Chatbot</span></i><span data-contrast="auto"> d’IA, qu’ils soient grand public ou criminels, vont permettre de réaliser plus d’attaques, et qui plus est, de meilleure qualité ! Montée en compétences techniques, identification de vulnérabilités, ressources clés en main ou partielle : </span><b><span data-contrast="auto">toutes ces capacités permettent à des profils moins expérimentés de réaliser des attaques avancées, plus qualitatives et plus impactantes.</span></b><span data-contrast="auto"> </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Néanmoins, l’instrumentalisation de l’IA par les criminels ne révolutionnent pas la manière dont les entreprises vont se défendre. </span><b><span data-contrast="auto">L’impact d’une attaque générée ou soutenue par une IA sera limité pour les organisations déjà matures, au même titre que les autres attaques. </span></b><span data-contrast="auto">Quand vos murs sont blindés, peu importe qu’on tire au 9mm ou avec un fusil d’assaut dessus. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="auto">Les messages, les processus, les outils seront à adapter mais les concepts sont les mêmes. </span></b><span data-contrast="auto">Le</span> <span data-contrast="auto">malware le plus perfectionné et le plus automatisé aura lui aussi du mal à progresser face à une entreprise qui a bien implémenté les </span><b><span data-contrast="auto">mécanismes de défense en profondeur et de segmentation (droits, réseau…)</span></b><span data-contrast="auto">. Au fond, même si une attaque est boostée à l’IA, il s’agira toujours de se protéger contre le </span><i><span data-contrast="auto">phishing</span></i><span data-contrast="auto">, la fraude, les </span><i><span data-contrast="auto">ransomwares</span></i><span data-contrast="auto">, le vol de données… </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">En ce qui concerne les </span><i><span data-contrast="auto">DeepFakes</span></i><span data-contrast="auto">, la sensibilisation des collaborateurs demeurera essentielle. Il faudra ainsi adapter les formations contre le </span><i><span data-contrast="auto">phishing</span></i><span data-contrast="auto"> pour y inclure des techniques de détection et de réaction contre cette nouvelle menace. La prévention passe enfin par de la sensibilisation aux techniques de désinformation et par l’adoptions des bons gestes (signalement, enregistrement de preuves, vérification des sources, vérification des métadonnées…).</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Evidemment, ceux ayant adopté des outils d&rsquo;analyse comportementale, ou qui ont automatisé une partie de leur réponse à incident ont un peu d’avance vis-à-vis d’une potentielle compromission. Pour aller plus loin, n’hésitez pas à </span><b><span data-contrast="auto">tester les fonctionnalités IA bêtas de vos solutions existantes</span></b><span data-contrast="auto"> (c’est une bonne manière d’intégrer progressivement l’IA dans votre stratégie de sécurité). Bien que toutes les promesses des éditeurs ne soient pas encore remplies, nous sommes convaincus que des progrès significatifs verront le jour. </span><b><span data-contrast="auto">Pour les plus matures, profitez de votre nouveau cycle stratégie pour explorer de nouveaux outils</span></b><span data-contrast="auto"> boostés à l’IA, par exemple pour la détection des </span><i><span data-contrast="auto">deep fakes</span></i><span data-contrast="auto"> en temps réel, capables d&rsquo;analyser des flux audio et vidéo. Ils apporteront une couche de sécurité supplémentaire aux outils de détection en place.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h3 aria-level="2"><span data-contrast="none">Pour conclure, gardons la tête froide !</span><span data-ccp-props="{&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;201341983&quot;:0,&quot;335559738&quot;:40,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h3>
<p style="text-align: justify;"><span data-contrast="auto">L&rsquo;adoption de l&rsquo;IA par les cybercriminels est une menace sérieuse qui nécessite une réflexion et une action immédiate</span><b><span data-contrast="auto">. Il s’agit pourtant moins de révolutionner la manière de faire de la sécurité que de l’améliorer, la tenir à jour et l’adapter</span></b><span data-contrast="auto">. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Les équipes sécurité devront surtout maintenir une </span><b><span data-contrast="auto">attitude pro-active face aux défis que soulèvent l’intelligence artificielle</span></b><span data-contrast="auto">. C’est en adaptant vos processus et en restant alerte sur l’évolution de ces technologies, que vous saurez appréhender la vague sereinement, notamment par l’amélioration de vos capacités de détection des menaces de nouvelles générations. Les techniques de défense déjà en place devraient être suffisamment adaptées pour couvrir la majorité des risques.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">Il s’agit également et surtout de ne pas négliger la sécurité </span><b><span data-contrast="auto">votre usage de l’IA</span></b><span data-contrast="auto"> : que ce soit le risque de perte de donnée et de propriété intellectuelle avec l’usage des </span><i><span data-contrast="auto">Chatbots</span></i><span data-contrast="auto"> grand public par vos collaborateurs, ou les risques d’attaques (empoisonnement, oracle, évasion) de vos algorithmes d’IA internes. Il est primordial d’intégrer la sécurité sur l’ensemble du cycle de développement, en adoptant notamment une approche basée sur les risques spécifiques à l’utilisation de l’IA. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="auto">La présidente de la CNIL, madame Marie-Laure DENIS appelait de ses vœux le 11 septembre 2023 à </span><a href="https://www.cnil.fr/sites/cnil/files/2023-09/audition_presidente-cnil_assemblee-nationale_11_09_2023.pdf"><span data-contrast="none">« la nécessité de créer les conditions d’une utilisation qui soit éthique, responsable et respectueuse de nos valeurs</span></a><span data-contrast="auto"> » devant la Commission des lois de l’Assemblée nationale. Les enjeux de ces nouveaux horizons technologiques impliquent de comprendre, d’évaluer les risques et d’encadrer les usages de l’IA (notamment en les liant au RGPD). C’est déjà le bon moment pour se poser ces questions et mettre en place les processus adaptés.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335551550&quot;:6,&quot;335551620&quot;:6,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:259}"> </span></p>
<p><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/">L&rsquo;industrialisation de l&rsquo;IA par les cybercriminels : faut-il vraiment s&rsquo;inquiéter ?</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>ChatGPT &#038; DevSecOps – Quels sont les nouveaux risques cybersécurité induits par l’utilisation de l’IA par les développeurs ? </title>
		<link>https://www.riskinsight-wavestone.com/2023/08/chatgpt-devsecops-quels-sont-les-nouveaux-risques-cybersecurite-induits-par-lutilisation-de-lia-par-les-developpeurs/</link>
					<comments>https://www.riskinsight-wavestone.com/2023/08/chatgpt-devsecops-quels-sont-les-nouveaux-risques-cybersecurite-induits-par-lutilisation-de-lia-par-les-developpeurs/#respond</comments>
		
		<dc:creator><![CDATA[Emma Barfety]]></dc:creator>
		<pubDate>Tue, 22 Aug 2023 15:00:00 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[chatgpt]]></category>
		<category><![CDATA[DevSecOps]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=21020</guid>

					<description><![CDATA[<p>En novembre 2022, l’agent conversationnel ChatGPT développé par OpenAI était rendu accessible au grand public. Depuis, dire que ce nouvel outil a suscité l’intérêt serait un euphémisme. Deux mois après son lancement, l’outil était l’application qui a connu la plus...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2023/08/chatgpt-devsecops-quels-sont-les-nouveaux-risques-cybersecurite-induits-par-lutilisation-de-lia-par-les-developpeurs/">ChatGPT &amp; DevSecOps – Quels sont les nouveaux risques cybersécurité induits par l’utilisation de l’IA par les développeurs ? </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;"><span data-contrast="none">En novembre 2022, l’agent conversationnel ChatGPT développé par OpenAI était rendu accessible au grand public. Depuis, dire que ce nouvel outil a suscité l’intérêt serait un euphémisme. Deux mois après son lancement, l’outil était l’application qui a connu la plus forte croissance de l’histoire avec près de 100 millions d’utilisateurs actifs par mois (record depuis battu par Threads).</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">A l’heure où les utilisateurs ont adopté ce produit en masse, cela pose aujourd’hui plusieurs questions fondamentales de cybersécurité. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Les entreprises doivent-elles laisser leurs employés – spécifiquement les équipes de développement – continuer à utiliser cet outil sans aucune restriction ? Doivent-elles suspendre son usage le temps que les équipes de sécurité se saisissent de la question ? Ou alors faut-il simplement le bannir ?</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Entre autres, certaines entreprises comme J.P. Morgan ou Verizon ont fait le choix d’en interdire l’usage. La société Apple <a href="https://www.businessinsider.com/chatgpt-companies-issued-bans-restrictions-openai-ai-amazon-apple-2023-7">avait initialement décidé d’autoriser l’outil pour ses employés avant de revenir sur sa décision et l’interdire</a></span><span data-contrast="none">. Amazon et Microsoft ont simplement demandé à leurs employés de faire attention aux informations partagées avec OpenAI.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">L’approche la plus restrictive qui consiste à bloquer la plateforme permet d’éviter toutes questions de cybersécurité mais posent d’autres interrogations, notamment sur la performance et la productivité des équipes, et plus largement de la compétitivité des entreprises sur des marchés changeant rapidement.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Aujourd’hui, la question du blocage IT de l’intelligence artificielle reste d’actualité. Nous proposons de donner quelques éléments de réponses à cette question </span><b><span data-contrast="none">pour une catégorie de population particulièrement concernée par la question : les équipes de développement</span></b><span data-contrast="none">.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h2 style="text-align: justify;" aria-level="3"><b><span data-contrast="none">ChatGPT, collecte d’informations personnelles et RGPD</span></b><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="none">Le produit d’OpenAI est libre d’accès et d’utilisation sous condition de créer un compte utilisateur. C’est une tendance connue : si un outil en ligne est gratuit, c’est que la source de revenu n’est pas issue de l’accès à l’outil. Pour le cas particulier de ChatGPT, les informations provenant de l’historique des millions d’utilisateurs permettent d’améliorer la plateforme et la qualité du modèle de langage. ChatGPT est un service </span><i><span data-contrast="none">en preview</span></i><span data-contrast="none"> : toute données entrée par l’utilisateur est susceptible d’être lue par un humain de façon à améliorer les services.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Actuellement ChatGPT ne semble pas conforme au RGPD et à la loi informatique et liberté mais aucune décision de justice n’a été rendue. Les conditions générales ne font actuellement pas mention du droit à la limitation du traitement, droit à la portabilité des données ou encore du droit d’opposition. La société OpenAI</span> <span data-contrast="none">basée aux Etats-Unis ne fait pas mention du RGPD mais rappelle que ChatGPT est conforme aux « CALIFORNIA PRIVACY RIGHTS ». En revanche, cette régulation ne s’applique que pour les résidents Californiens et ne s’applique donc pas au-delà des Etats-Unis d’Amérique. OpenAI ne propose pas non plus de solution pour permettre aux individus de vérifier si l’éditeur stocke leurs données personnelles, ni d’en réclamer leur suppression.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Enfin, lorsque nous nous attardons sur les </span><a href="https://openai.com/policies/privacy-policy"><span data-contrast="none">mentions légales</span></a><span data-contrast="none"> de ChatGPT, nous pouvons comprendre que : </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<ol style="text-align: justify;">
<li data-leveltext="%1." data-font="Calibri" data-listid="12" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559684&quot;:-1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="none">OpenAI collecte les adresses IP de l’utilisateur, son type de navigateur Web, ainsi que les données et ses interactions avec le site web. Par exemple, cela inclut le type de contenu généré avec l’IA, les cas d’usages et les fonctions utilisées.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></li>
<li data-leveltext="%1." data-font="Calibri" data-listid="12" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559684&quot;:-1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span data-contrast="none">OpenAI collecte aussi des informations sur l’activité de navigation des utilisateurs sur le web. Elle se réserve d’ailleurs le droit de partager ces informations personnelles avec des tiers, mais sans préciser lesquelles. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></li>
</ol>
<p style="text-align: justify;"><span data-contrast="none">Tout ceci étant fait dans le but entre autres d’améliorer les services existants ou de développer de nouvelles fonctionnalités. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Pour revenir aux populations de développeurs, on observe aujourd’hui que la majorité du code s’écrit de manière collaborative en utilisant des outils Git. Ainsi, il n’est pas rare pour un développeur de devoir comprendre un morceau de code qu’il n’a pas écrit lui-même. Plutôt que de demander au rédacteur en question ce qui peut prendre plusieurs minutes (au mieux), un développeur peut être tenté de se tourner vers ChatGPT afin d’obtenir une réponse de manière instantanée. La réponse peut parfois même être plus détaillée que celle que l’auteur du code pourrait fournir.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<table style="width: 100%; border-collapse: collapse; border-style: solid; background-color: #cccfca;">
<tbody>
<tr>
<td style="width: 100%;">
<p style="text-align: justify;"><span style="color: #ffffff;">En conséquence, il semble plus que nécessaire d’anonymiser les éléments que l’on partage avec le ChatBot. Sans quoi, certains individus pourraient avoir accès à des données confidentielles de manière illégitime.  </span></p>
<p style="text-align: justify;"><span style="color: #ffffff;">Ainsi, si un développeur souhaite comprendre les fonctionnalités d’un morceau de code qu’il ne connaît pas avec l’aide de ChatGPT, il convient de : </span></p>
<ul style="text-align: justify; list-style-type: circle;">
<li data-leveltext="" data-font="Symbol" data-listid="15" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559684&quot;:-2,&quot;335559685&quot;:1068,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="1" data-aria-level="1"><span style="color: #ffffff;">Morceler le code de façon à ne pas divulguer des fonctionnalités complètes, </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="15" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559684&quot;:-2,&quot;335559685&quot;:1068,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="2" data-aria-level="1"><span style="color: #ffffff;">Supprimer tous les secrets et les mots de passe éventuels présent dans le code (cela étant une bonne pratique à respecter même sans utilisation de ChatGPT),  </span></li>
<li data-leveltext="" data-font="Symbol" data-listid="15" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559684&quot;:-2,&quot;335559685&quot;:1068,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" aria-setsize="-1" data-aria-posinset="3" data-aria-level="1"><span style="color: #ffffff;">Changer les noms de variables étant trop explicites. </span></li>
</ul>
</td>
</tr>
</tbody>
</table>
<p><span style="font-size: revert; color: initial;" data-contrast="none"> </span><span style="font-size: revert; color: initial;" data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h2 style="text-align: justify;" aria-level="3"><b><span data-contrast="none">Les attaques classiques sur l’IA restent valables</span></b><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="none">Plus de la moitié des entreprises se disent aujourd’hui prêtes et décidées à investir et à s’équiper d’outils fonctionnant grâce à l’intelligence artificielle. Par conséquent, il va être de plus en plus intéressant pour les attaquants d’exploiter ce type de technologie. D’autant que la notion cybersécurité est trop souvent ignorée lorsqu’on parle d’intelligence artificielle.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559731&quot;:360,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">L’IA d’OpenAI n’est pas immunisée contre les </span><b><span data-contrast="none">attaques par empoisonnement</span></b><span data-contrast="none">. Même si l’IA est entraînée sur une base de connaissance conséquente, il est peu probable que l’ensemble de cette connaissance ait fait l’objet d’une revue manuelle. </span><b><span data-contrast="none">Si nous revenons au sujet de la génération de code, il est probable que selon certains entrants spécifiques l’IA propose du code contenant une porte dérobée (backdoor).</span></b><span data-contrast="none"> Même si ce cas de figure n’a pas été constaté, il n’est pas possible de prouver que celui-ci ne se produira pas selon un entrant particulier de l’utilisateur.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Nous pouvons également supposer que l’outil n’a été entrainé qu’à partir de sources web relativement sûres. Le LLM (Large Language Model) sur lequel repose ChatGPT : GPT3 pourrait être susceptible à « l’auto-empoisonnement ». En effet, à mesure que GPT3 est utilisée par des millions d’utilisateurs, il est très probable que du texte généré par GPT3 se retrouve au sein de contenus internet de confiance. L’entraînement de GPT4 pourrait donc théoriquement contenir du texte généré par GPT3. Ainsi, l’IA pourrait réaliser son apprentissage à partir de connaissances qui aurait été générées par des versions antérieures du même modèle LLM. Il sera intéressant de voir comment OpenAI contourne le problème d’empoisonnement à mesure que les évolutions sont apportées au modèle.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">L’empoisonnement est une des techniques permettant d’ajouter des </span><i><span data-contrast="none">backdoors</span></i><span data-contrast="none"> dans le code généré par l’IA, mais ceci n’est pas l’unique vecteur d’attaque. Il est également possible qu’une compromission des systèmes OpenAI permettant de modifier la configuration de ChatGPT afin de suggérer du code contenant des portes dérobées sous certaines conditions. Un attaquant sournois pourrait aller jusqu’à filtrer sur l’identité du compte utilisateur de ChatGPT (par exemple un compte finissant par @grandclientduCAC40.com) pour décider ou non de générer du code contenant des backdoors et autres vulnérabilités. Il est donc nécessaire de rester vigilant du niveau de sécurité d’OpenAI de façon à éviter toute compromission par rebond.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559685&quot;:360,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<h2 style="text-align: justify;" aria-level="3"><b><span data-contrast="none">Chat GPT et la génération de code</span></b><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></h2>
<p style="text-align: justify;"><span data-contrast="none">La génération de code via ChatGPT est une des fonctionnalités qui peuvent faire gagner le plus de temps à un développeur au quotidien. Un développeur peut par exemple demander de rédiger un squelette de code pour une fonction puis compléter / corriger les erreurs de l’IA au besoin. Le risque principal induit par cette pratique est ici l’insertion de code malveillant au sein d’une application.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Cependant, le risque existait bien avant ChatGPT. Un développeur malveillant pourrait très bien obfusquer son code et insérer une </span><i><span data-contrast="none">backdoor</span></i><span data-contrast="none"> au sein d’une application de manière volontaire. En revanche l’introduction de l’IA apporte une nouvelle dimension au risque dès lors qu’un utilisateur bien intentionné pourrait introduire une </span><i><span data-contrast="none">backdoor</span></i> <b><span data-contrast="none">malgré lui</span></b><span data-contrast="none">. Ceci est à mettre en perspective de la </span><b><span data-contrast="none">maturité de l’entreprise vis-à-vis de sa chaine CI/CD. La réalisation de scans SAST, DAST et d’audits divers avant la mise en production permet entre-autres de réduire le risque. </span></b><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Nous avons constaté que la génération de code via ChatGPT ne suit pas par défaut les meilleures pratiques de sécurité. </span><b><span data-contrast="none">L’outil peut générer du code utilisant des fonctions non sécurisées comme </span></b><b><i><span data-contrast="none">scanf</span></i></b><b><span data-contrast="none"> en langage C</span></b><span data-contrast="none">. Nous avons proposé à l’outil la requête suivante : « Est-ce que tu peux écrire une fonction en langage C qui permet de créer une liste de nombres entiers grâce à des inputs d’un utilisateur ? ».</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p> </p>
<p><img loading="lazy" decoding="async" class="wp-image-21040 size-full aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT1.png" alt="xtrait de code - Code généré par ChatGPT suite à l’entrée utilisateur décrite ci-dessus " width="732" height="624" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT1.png 732w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT1-224x191.png 224w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT1-46x39.png 46w" sizes="auto, (max-width: 732px) 100vw, 732px" /></p>
<p style="text-align: center;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> <em>Code généré par ChatGPT suite à l’entrée utilisateur décrite ci-dessus</em></span></p>
<p style="text-align: justify;"><span data-contrast="none">En analysant le code généré par ChatGPT on remarque – entre autres – trois vulnérabilités importantes : </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">(1) Pour débuter, l’utilisation de la fonction scanf permet à l’utilisateur de rentrer n’importe quelle longueur d’input (int overflow…). Il n’y a pas de validation de l’input de l’utilisateur, ce qui reste aujourd’hui un type de vulnérabilité phare remonté par l’OWASP TOP10. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">(2) Additionnellement, la fonction est sensible au buffer overflow : au-delà du 100</span><span data-contrast="none">ème</span><span data-contrast="none"> input, la liste </span><i><span data-contrast="none">list </span></i><span data-contrast="none">ne contient plus de place pour stocker des données additionnelles ce qui peut soit terminer l’exécution par une erreur ou alors permettre à un utilisateur malveillant d’écrire des données dans une zone de la mémoire qui ne serait pas autorisée </span><b><span data-contrast="none">afin de prendre le contrôle de l’exécution du programme</span></b><span data-contrast="none">. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">(3) Pour finir, ChatGPT alloue de la mémoire à la liste via la fonction </span><i><span data-contrast="none">malloc</span></i><span data-contrast="none"> mais oublie de libérer la mémoire une fois que la liste n’est plus utilisée ce qui pourrait entrainer des </span><b><span data-contrast="none">soucis de fuite de mémoire </span></b><span data-contrast="none">(</span><i><span data-contrast="none">memory leak</span></i><span data-contrast="none">).</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Chat GPT ne génère donc pas de code de manière sécurisée par défaut contrairement à un développeur expérimenté. </span><b><span data-contrast="none">L’outil propose du code contenant des vulnérabilités critiques</span></b><span data-contrast="none">. Si l’utilisateur se révèle assez sensibilisé à la cybersécurité, il est possible de demander à ChatGPT d’identifier les vulnérabilités contenues dans son propre code : </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p><img loading="lazy" decoding="async" class="wp-image-21042 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT2.png" alt="" width="814" height="329" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT2.png 814w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT2-437x177.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT2-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2023/08/Article-ChatGPT2-768x310.png 768w" sizes="auto, (max-width: 814px) 100vw, 814px" /></p>
<p style="text-align: center;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> <em>ChatGPT est capable de détecter les vulnérabilités sur le code ayant été généré par ses soins.</em></span></p>
<p style="text-align: justify;"><span data-contrast="none">Pour résumer, la génération de code via ChatGPT n’introduit pas de nouveaux risques mais </span><b><span data-contrast="none">accentue la probabilité qu’une vulnérabilité se retrouve en production</span></b><span data-contrast="none">. Les recommandations peuvent varier en fonction de la maturité et de la confiance qu’a l’entreprise dans la sécurisation du code livré en production. Une chaine CI/CD et des processus robustes avec des scans de sécurité automatiques (SAST, DAST, FOSS…) a de grande chance de détecter les vulnérabilités les plus critiques. </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Ainsi, ChatGPT n’est pas la seule ressource accessible en ligne par les utilisateurs pouvant permettre l’exfiltration de données (Google Drive, WeTransfer…). Le risque de fuite de données plane déjà sur toute organisation n’ayant pas implémenté une allow-list sur le proxy internet de ses utilisateurs. Le facteur différenciant dans le cas de ChatGPT est que l’utilisateur ne se rend pas nécessairement compte du caractère public des données postées sur la plateforme. Les bénéfices et le gain de temps apportés par l’outil sont bien souvent trop tentant pour l’utilisateur lui faisant oublier les bonnes pratiques. En ce sens ChatGPT n’apporte pas de nouveaux risques mais accentue les probabilités de fuite de données.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><b><span data-contrast="none">Une organisation dispose donc de deux options afin d’empêcher la fuite de donnée via ChatGPT : (1) former et sensibiliser ses utilisateurs puis leur faire confiance, ou (2) bloquer l’outil.</span></b><span data-contrast="none"> </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Pour les population de développeurs, ici encore la génération de code via ChatGPT n’introduit pas de nouveaux risques mais accentue la probabilité qu’une vulnérabilité se retrouve en production. Il revient à l’entreprise d’évaluer les capacités de sa chaine CI/CD et ses processus de mise en production afin d’évaluer les risques résiduels notamment concernant les faux-négatifs des outils de sécurité intégrés (SAST, DAST…).  </span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:0,&quot;335559740&quot;:240}"> </span></p>
<p style="text-align: justify;"><span data-contrast="none">Afin de prendre une décision éclairée, une </span><b><span data-contrast="none">analyse de risques reste un bon outil pour prendre une décision quant au blocage éventuel de l’accès à ChatGPT</span></b><span data-contrast="none">. Les aspects suivants doivent être considérés : niveau de sensibilisation des utilisateurs, sensibilité de la donnée manipulée, paradigme de filtrage internet, maturité de la chaine CI/CD&#8230; Ces analyses sont bien sûr à mettre en perspective avec les potentiels gains en productivité des équipes.</span><span data-ccp-props="{&quot;201341983&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:259}"> </span></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2023/08/chatgpt-devsecops-quels-sont-les-nouveaux-risques-cybersecurite-induits-par-lutilisation-de-lia-par-les-developpeurs/">ChatGPT &amp; DevSecOps – Quels sont les nouveaux risques cybersécurité induits par l’utilisation de l’IA par les développeurs ? </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2023/08/chatgpt-devsecops-quels-sont-les-nouveaux-risques-cybersecurite-induits-par-lutilisation-de-lia-par-les-developpeurs/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Banking Innovation Awards : ils construisent ensemble la banque du futur ! </title>
		<link>https://www.riskinsight-wavestone.com/2020/10/banking-innovation-awards-ils-construisent-ensemble-la-banque-du-futur/</link>
		
		<dc:creator><![CDATA[Alfred Briand]]></dc:creator>
		<pubDate>Mon, 12 Oct 2020 07:00:44 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[Banque]]></category>
		<category><![CDATA[BIA]]></category>
		<category><![CDATA[données]]></category>
		<category><![CDATA[Innovation]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[startups]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=14342</guid>

					<description><![CDATA[<p>12Plus de 60 start-ups et PME ont participé à la quatrième édition des « Banking Innovation Awards » (BIA), anciennement «&#160;Banking CyberSecurity Innovation Awards&#160;» (BCSIA). Cybersécurité, intelligence artificielle et data sont les maîtres mots de ce concours de startups organisé...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/10/banking-innovation-awards-ils-construisent-ensemble-la-banque-du-futur/">Banking Innovation Awards : ils construisent ensemble la banque du futur ! </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>12Plus de 60 start-ups et PME ont participé à la quatrième édition des « </em><a href="https://banking-innovation-awards.com/"><em>Banking Innovation Awards</em></a><em> » (BIA), anciennement «&nbsp;Banking CyberSecurity Innovation Awards&nbsp;» (BCSIA). Cybersécurité, intelligence artificielle et data sont les maîtres mots de ce concours de startups organisé chaque année de façon collaborative par Wavestone et la Société Générale. Le 6 octobre 2020, la cérémonie de remise de prix a permis à un jury d’envergure, de récompenser 4 startups parmi les 8 finalistes du concours. Les 4 startups gagnantes auront désormais l’opportunité d’intégrer Shake’Up, le programme d’accélérateur de startups de Wavestone, et de tester leur solution au sein de la Société Générale. </em></p>
<p><em>Pour plus d’informations, retrouvez la </em><a href="https://www.youtube.com/watch?v=_EJPAA1v7fU&amp;feature=youtu.be"><em>vidéo</em></a><em> de présentation du concours.</em></p>
<p>&nbsp;</p>
<h2>Pour la quatrième édition du concours, la data et l&rsquo;IA viennent s&rsquo;ajouter à la cybersécurité !</h2>
<p>Alors que les précédentes éditions du concours récompensaient uniquement des startups spécialisées dans le domaine de la cybersécurité, l’édition 2020 a élargi son spectre pour accueillir de nouveaux sujets, que sont l’intelligence artificielle et la data, qui demeurent des composantes clés au sein de l’écosystème cyber.</p>
<p>L’ensemble des sociétés participantes, d’origine française ou européenne, ont su partager toute la richesse de leurs diverses expertises. On peut ainsi dresser le top 5 des sujets traités par les participants cette année&nbsp;:</p>
<ul>
<li>Lutte contre la fraude</li>
<li>Protection de l’identité numérique</li>
<li>Développement de l’intelligence artificielle pour les affaires</li>
<li>Protection de l’intégrité des données</li>
<li>Détection des incidents et vulnérabilités</li>
</ul>
<p>&nbsp;</p>
<h2>Un jury d’envergure, des analyses et des messages forts&nbsp;!</h2>
<p>Cette cérémonie avait bien évidemment pour but de récompenser les grands gagnants de l’édition 2020, mais pas seulement. C’était également l’opportunité, pour l’ensemble des membres du jury et des personnalités présentes, de partager leurs analyses quant à l’écosystème startups actuel.</p>
<p>Cette année, le jury était composé de Claire Calmejane <em>(Directrice de l’Innovation du Groupe – Société Générale)</em>, Christophe Leblanc <em>(Directeur des Ressources et de la Transformation Numérique du Groupe – Société Générale)</em>, Pascal Imbert <em>(Président Directeur Général – Wavestone)</em>, Reza Maghsoudnia <em>(Directeur Développement Stratégique – Wavestone)</em>, Guillaume Poupard <em>(Directeur Général – ANSSI)</em>, Jamal Attif <em>(Professeur à Dauphine-PSL, responsable de l’équipe MILES)</em> et d’un collège d’experts <em>(Thierry Olivier, Christina Poirson, Julien Molez, Gérôme Billois, Ghislain de Pierrefeu et Severine Hassler).</em></p>
<p>&nbsp;</p>
<h3>Enseignements et perspectives de la crise</h3>
<p>Bien que cette crise sanitaire ne soit pas encore terminée, elle paraît en tout cas un peu mieux maîtrisée qu’en mars, quand cette maladie nous était encore inconnue. À ce sujet, Pascal Imbert et Christophe Leblanc ont apporté leur analyse de cette crise et de ses impacts.</p>
<p>Selon eux, cette crise a été à la fois révélatrice des fragilités propres à chaque entreprise et des modèles économiques actuels, mais aussi accélératrice de tendance, avec une place plus importante encore prise par le numérique ces derniers mois. Ces éléments rendent les transformations plus profondes et plus rapides. Cela n’est pas sans conséquence pour les entreprises, qui voient leurs transformations s’accélérer, avec la nécessité d’intégrer de nouveaux facteurs, tel qu’un meilleur équilibre entre efficacité et résilience. Tout cela, avec une place majeure de la technologie, qui représente un défi économique, technologique et de souveraineté. L’environnement startups, mis à l’honneur avec ce concours, est, selon Pascal Imbert, un des élément clé devant nous permettre de reprendre la main sur la technologie et ses usages.</p>
<p>Cette crise est donc à la fois un facteur de transformation digitale et stratégique, dont la data et la cybersécurité font partie intégrante, un facteur d’agilité, avec l’accélération du télétravail et l’adaptation des règles de sécurité informatique qui a été nécessaire et un facteur de «&nbsp;stress-test&nbsp;», pour nos modèles économiques et technologiques.</p>
<p>&nbsp;</p>
<h3>L’intelligence artificielle et la data au service de la crise</h3>
<p>Jamal Attif nous l’a tous rappelé d’emblée&nbsp;: «&nbsp;la valeur est dans la donnée&nbsp;». Cependant, selon lui, l’IA telle qu’on la connait aujourd’hui, n’est pas en mesure de résoudre cette crise. Elle peut aider à la combattre, en utilisant par exemple des algorithmes de fouille de données bibliographiques permettant de comprendre les effets de certains médicaments. Elle peut aussi accélérer et améliorer les diagnostics dans le milieu médical, via la reconnaissance d’images, mais elle ne peut pas prédire ce qui n’a jamais été observé auparavant, telle que cette épidémie, qui s’est développée très rapidement.</p>
<p>L’écosystème des startups a aujourd’hui un vrai impact dans nos modèles économique, mais il paraît important selon lui, pour faire de l’innovation de rupture permettant de répondre à des problématiques d’une telle envergure, de combiner toutes les forces en présence, que ce soient celles du monde de la recherche, des grands groupes ou des startups.</p>
<p>&nbsp;</p>
<h3>Cybersécurité&nbsp;: évolution de la menace et innovations</h3>
<p>Guillaume Poupard constate deux points majeurs concernant le numérique et la cybersécurité aujourd’hui.</p>
<p>Tout d’abord, il soulève le côté positif de la transformation numérique, qui a permis de surmonter le défaut d’activité pendant cette période particulière. Cependant, il faut selon lui rester prudent, notamment face à la croissance particulièrement inquiétante de la cybercriminalité qui cible désormais de grandes entreprises, avec des cas très graves qui se multiplient (50 ransomwares en 2019, contre déjà 130 en 2020, et ce n’est pas terminé). La question de la lutte contre la cybercriminalité est donc un sujet d’importance majeure, d’où l’utilité de refaire des analyses de risques et des audits des systèmes d’information, afin de déceler les éventuels manquements à la cybersécurité durant ces quelques mois. Tout comme Jamal Attif, il rappelle l’importance que des acteurs publics et privés de toutes tailles, avec des motivations différentes, puissent travailler ensemble, afin de renforcer nos défenses en matière de cybersécurité. Il faut selon lui mettre en avant ceux qui innovent, et c’est d’ailleurs l’un des objectifs du campus cyber, qui devrait voir le jour dans les prochaines années, en région parisienne.</p>
<p>L’autre point, c’est de continuer à élever ces sujets au niveau de l’Union Européenne, et même au-delà, en mettant en place des réseaux pour que l’ensemble des parties prenantes puissent travailler ensemble. C’est notamment l’objectif du lancement, par les états membres de l’Union Européenne, du Cyber Crisis Liaison Organisation Network (CyCLONe).</p>
<p>&nbsp;</p>
<h3>Zoom sur l’écosystème innovation et startups</h3>
<p>Reza Maghsoudnia partage l’essence même de l’écosystème startups, qui est de savoir sortir des sentiers battus, de challenger les acteurs établis, et d’innover pour donner plus de valeur aux diverses transformations que nous vivons. La crise augmente encore le besoin d’innovation, d’où l’importance pour Wavestone, de continuer à identifier ces gisements d’innovation, de les soutenir et de les accompagner.</p>
<p>À ce sujet, Wavestone a créé en 2015 un accélérateur de startups (<a href="https://www.wavestone.com/fr/offre/shakeup/">Shake’Up</a>), permettant d’être en permanence en interaction avec plusieurs centaines d’acteurs innovants sur le marché et d’identifier des pépites, afin de les accompagner. À ce jour, plus de 40 startups ont été accompagnées, dont de véritables success stories telles qu’Alsid et Citalid, dans le domaine de la cybersécurité. En ce qui concerne l’écosystème startups Cybersécurité françaises, nous vous proposons d’ailleurs de lire l’<a href="https://www.riskinsight-wavestone.com/2020/10/radar-2020-des-startups-cybersecurite-francaises-notre-analyse-1-2/">analyse de nos experts</a>, suite au radar des startups réalisé par Wavestone.</p>
<p>&nbsp;</p>
<h2>61 startups participantes, 8 startups retenues et 4 startups récompensées</h2>
<h3>Isahit, Prix Spécial – Data for good &amp; Ethics</h3>
<p>Fondée en 2016, la « Tech for Good » française Isahit propose aux entreprises une plateforme digitale d’impact sourcing, pour le traitement de tâches digitales ne pouvant être prise en charge par une intelligence artificielle.</p>
<p>Retrouvez la <a href="https://www.youtube.com/watch?v=YO-QHYRWXRk&amp;feature=youtu.be">vidéo</a> de présentation de la startup Isahit.</p>
<p>&nbsp;</p>
<h3>CryptoNext, Prix Spécial – Cybersécurité Made in France</h3>
<p>Fondée en 2019, CryptoNext a développé une technologie de chiffrement permettant de rendre les données résistantes à la puissance de l’informatique quantique. Son logiciel a vocation à être implémenté dans les offres des grands acteurs de la sécurité informatique.</p>
<p>Retrouvez la <a href="https://www.youtube.com/watch?v=bOUNolFAV4E&amp;feature=youtu.be">vidéo</a> de présentation de la startup CryptoNext.</p>
<p>&nbsp;</p>
<h3>Inqom, Grand Prix Data &amp; IA</h3>
<p>Fondée en 2015, Inqom a construit un logiciel SaaS d’automatisation la production comptable, permettant de générer le bilan en temps réel. Grâce à l’intelligence artificielle, la solution traite et enrichit les données comptables afin de créer une comptabilité centralisée, uniformisée et intelligente.</p>
<p>Retrouvez la <a href="https://www.youtube.com/watch?v=8q6K4q414X4&amp;feature=youtu.be">vidéo</a> de présentation de la startup Inqom.</p>
<p>&nbsp;</p>
<h3>Hackuity, Grand Prix Cybersécurité</h3>
<p>Fondée en 2018, Hackuity propose une plateforme repensant la manière dont les vulnérabilités informatiques sont gérées dans les entreprises en collectant, normalisant et orchestrant toutes les pratiques d&rsquo;évaluation de la sécurité, automatisées ou manuelles.</p>
<p>Retrouvez la <a href="https://www.youtube.com/watch?v=hGvYQ9ZXK0Q&amp;feature=youtu.be">vidéo</a> de présentation de la startup Hackuity.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2020/10/banking-innovation-awards-ils-construisent-ensemble-la-banque-du-futur/">Banking Innovation Awards : ils construisent ensemble la banque du futur ! </a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Détecter des incidents cyber par Machine Learning : notre maquette en 5 étapes clefs !</title>
		<link>https://www.riskinsight-wavestone.com/2019/08/detecter-incidents-machine-learning/</link>
		
		<dc:creator><![CDATA[Hugo.MORET@wavestone.fr]]></dc:creator>
		<pubDate>Mon, 05 Aug 2019 07:19:08 +0000</pubDate>
				<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[Ethical Hacking & Incident Response]]></category>
		<category><![CDATA[détection]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[Machine learning]]></category>
		<category><![CDATA[SOC]]></category>
		<category><![CDATA[Threat intelligence]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=12027</guid>

					<description><![CDATA[<p>Alors que la place de l’Intelligence Artificielle grandit dans les entreprises, allant de la maintenance prédictive à l’optimisation tarifaire, de nouveaux outils dits « intelligents » se développent pour la cybersécurité. Comment ces outils exploitent-ils les récents développements du Machine Learning ? Quelles...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2019/08/detecter-incidents-machine-learning/">Détecter des incidents cyber par Machine Learning : notre maquette en 5 étapes clefs !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Alors que la place de <strong>l’Intelligence Artificielle</strong> grandit dans les entreprises, allant de la maintenance prédictive à l’optimisation tarifaire, de nouveaux outils dits « <strong>intelligents</strong> » se développent pour la cybersécurité. Comment ces outils exploitent-ils les récents développements du Machine Learning ? Quelles étapes suivre pour développer une solution de détection intelligente et surtout pertinente dans son contexte ?</em></p>
<p>&nbsp;</p>
<h2>Des méthodes de détection statiques à de l’analyse comportementale</h2>
<p>Les attaques évoluant de plus en plus rapidement et de manière toujours plus élaborée, le SOC (<em>Security Operations Center</em>) est forcé de revoir son approche concernant les outils en place car les mécanismes de détection statiques deviennent trop rapidement obsolètes :</p>
<ul>
<li>L’approche historique repose sur la <strong>reconnaissance de comportements et d’empreintes connues </strong>(ex : signatures de malwares). Cette méthode, appelée <strong><em>misuse-based</em></strong>, remonte des alertes explicites et simples à analyser pour les opérationnels, mais seules les attaques déjà subies et détectées pourront être reconnues.</li>
<li>La nouvelle approche vise à <strong>analyser les actions déviant du comportement normalement observé</strong> sans avoir à définir explicitement et exhaustivement un acte malveillant (ex : comportement d’un individu s’éloignant de celui de ses collègues). Cette approche <strong><em>anomaly-based</em></strong> permet de détecter des attaques non renseignées directement dans les outils mais nécessite d’exploiter de plus larges volumes de données.</li>
</ul>
<p>L’approche <em>anomaly-based</em> exploite les capacités de corrélation des algorithmes d’<strong>apprentissage non supervisé</strong> mettant en avant des liens dans des données non labellisées (non catégorisées comme normales ou anormales).</p>
<p>&nbsp;</p>
<h2>Recette de l’été : détection d’anomalies sur lit de Machine Learning</h2>
<p>Pour savoir si le <em>Machine Learning</em> convient à son contexte, la meilleure solution reste de réaliser un PoC (<em>Proof of Concept</em>). Comment l’implémenter ? Quels sont les points d’attention ? Voici les étapes clés de notre développement.</p>
<p>&nbsp;</p>
<h3>Entrée, plat ou dessert : définir le cas d’usage</h3>
<p>Faire du <em>Machine Learning</em>, c’est bien. Savoir pourquoi, c’est mieux. Définir un <strong>cas d’usage</strong> revient à répondre à la question « Que voulez-vous observer ? » et déterminer les moyens disponibles pour y répondre.</p>
<p>Dans notre contexte, un cas d’usage est un scénario de menace portant sur un ou des groupes de comptes (administrateurs malveillants, exfiltration de données sensibles…). Pour les évaluer, plusieurs critères sont à prendre en considération :</p>
<ul>
<li><strong>Utilité</strong>: quel serait l’impact si le scénario se réalisait ?</li>
<li><strong>Disponibilité des données</strong>: quelles sont les sources de données utiles disponibles ?</li>
<li><strong>Complexité des données</strong>: les données disponibles sont-elles structurées (nombres, tableaux) ou non structurées (images, texte) ?</li>
</ul>
<p>Nous avons choisi de travailler sur la compromission de <strong>comptes de services</strong> : certains peuvent avoir des droits importants, et leurs actions automatisées génèrent des données relativement structurées. Dans le cadre d’un PoC, un périmètre restreint et des sources de données homogènes et facilement accessibles sont à privilégier pour obtenir des résultats concrets et exploitables, avant d’envisager des cas d’usages plus ambitieux.</p>
<p>&nbsp;</p>
<h3>Pesée des ingrédients : déterminer le modèle de données</h3>
<p>Afin d’exploiter au mieux les données, il est nécessaire de définir une représentation permettant de <strong>modéliser un comportement à partir des informations disponibles</strong>. Ici intervient notamment l’expertise métier : une <strong>action isolée</strong> peut-elle être signe de compromission ou faut-il plutôt prendre en compte une <strong>série d’actions</strong> pour détecter un comportement malveillant ?</p>
<p>Dans un premier temps, nous avons défini un modèle basé sur l’analyse de logs unitaires et de même famille (ex : connexions, accès aux ressources…) pour évaluer le fonctionnement global. Cependant, un <strong>modèle trop simple</strong> ignorera des signaux faibles cachés dans des <strong>corrélations</strong> d’actions, tandis qu’une <strong>représentation trop complexe</strong> ajoutera du temps de traitement et sera plus sensible aux biais de modélisation.</p>
<p>&nbsp;</p>
<h3>Sélection des ustensiles : choisir l’algorithme</h3>
<p>Plusieurs types d’algorithmes peuvent être employés pour la détection d’anomalies :</p>
<ul>
<li>Certains tentent <strong>d’isoler</strong> chaque point : si un point est facile à isoler, il est éloigné des autres et donc plus anormal.</li>
<li>Les algorithmes de <strong><em>clustering</em></strong> créent des groupes de points qui se ressemblent et calculent le barycentre de chacun correspondant au comportement moyen : si un point est trop éloigné du barycentre, il est considéré comme anormal.</li>
<li>Moins fréquents, les <a href="https://towardsdatascience.com/credit-card-fraud-detection-using-autoencoders-in-h2o-399cbb7ae4f1"><strong>auto-encodeurs</strong></a> sont des réseaux de neurones artificiels qui apprennent à recréer le comportement normal avec moins de paramètres : les erreurs de reproduction du comportement pourront être considérées comme un score d’anomalie.</li>
</ul>
<p>D’autres approches existent encore, jusqu’aux plus exotiques <a href="https://www.hindawi.com/journals/tswj/2014/156790/abs/">systèmes immunitaires artificiels</a> qui imitent les mécanismes biologiques pour créer un outil de détection évolutif. Il faut cependant ne pas oublier qu’<strong>un outil simple et bien optimisé est souvent plus efficace qu’un outil trop complexe</strong>.</p>
<p>L’algorithme de clustering des <strong>k-moyennes</strong> a été sélectionné dans notre cas : utilisé notamment dans la détection de fraude bancaire, il simplifie le réentrainement qui permet à l’outil de rester adapté malgré les évolutions des comportements.</p>
<p>Tous ces algorithmes peuvent également être <strong>enrichis</strong>, <strong>selon le modèle de comportements</strong> choisi, pour prendre en compte une suite d’actions. Ainsi, des réseaux de neurones <a href="https://fr.wikipedia.org/wiki/R%C3%A9seau_neuronal_convolutif">convolutifs</a> ou <a href="https://fr.wikipedia.org/wiki/R%C3%A9seau_de_neurones_r%C3%A9currents">récurrents</a> peuvent être ajoutés en amont pour prendre en compte des <strong>séries temporelles</strong>.</p>
<p>&nbsp;</p>
<h3>Préparation des ingrédients : transformer les données</h3>
<p>Une fois que l’algorithme a été sélectionné, il faut traiter les données brutes afin de les rendre exploitables. Ce traitement s’effectue en plusieurs étapes :</p>
<ul>
<li><strong>Le</strong> <strong>nettoyage</strong>: correction des erreurs de <em>parsing</em>, suppression des informations inutiles et ajout des informations manquantes</li>
<li><strong>L’enrichissement</strong>: ajout des données venant d’autres sources et retraitement des champs pour mettre en avant une information (ex : indiquer si une date est un jour férié…)</li>
<li><strong>La transformation</strong>: création de colonnes binaires pour les données qualitatives (ex : nom de compte, type d’événement…) ne pouvant pas être directement transformées en nombres (une colonne pour chaque valeur unique, indiquant si la valeur est présente ou non)</li>
<li><strong>La normalisation </strong>: retraitement des valeurs afin qu’elles soient toutes comprises entre 0 et 1 (pour éviter qu’un champ ne prenne l’ascendant sur un autre)</li>
</ul>
<p>En raison de la variété d’événements possibles et de la complexité des logs, nous avons fait le choix d’automatiser ce processus : pour chaque champ, l’algorithme détecte le type de données et sélectionne la transformation adaptée dans une bibliothèque prédéfinie. L’opérateur peut ensuite interagir avec l’outil pour modifier ce choix avant de continuer le processus.</p>
<p>&nbsp;</p>
<h3>Assaisonnement : tester et optimiser l’outil</h3>
<p>Une fois le modèle défini, l’algorithme choisi et les données transformées, l’outil développé devrait être en capacité de lever des alertes sur des anomalies. Ces alertes ont-elles du sens ou sont-elles des faux positifs ?</p>
<p>Afin d’évaluer la performance de l’outil, nous avons effectué deux types de tests :</p>
<ul>
<li>La <strong>simulation d’intrusion </strong>en effectuant des actions malveillantes pour vérifier si elles sont bien détectées comme anormales (cette approche peut être également traitée en ajoutant directement de « faux » logs dans les <em>sets</em> de données)</li>
<li>L’<strong>analyse des anomalies </strong>en vérifiant si les alertes levées correspondent effectivement à des comportements malveillants</li>
</ul>
<p>De nombreux paramètres peuvent être ajustés dans les algorithmes permettant d’affiner la détection. <strong>L’optimisation des performances</strong> se fait par itérations, en modifiant les paramètres et en observant l’effet sur un <strong><em>set</em> de données de validation</strong>. Chronophage manuellement, elle peut être améliorée par l’approche <a href="https://en.wikipedia.org/wiki/Hyperparameter_optimization"><strong>AutoML</strong></a><strong> </strong>qui cherche à automatiser certaines étapes par l’utilisation d’algorithmes d’optimisation.</p>
<p>Cependant, l’optimisation des paramètres ne suffit pas : les résultats de notre PoC nous ont permis de constater que la qualité d’une détection basée sur de l’analyse comportementale repose en grande partie sur la pertinence des comportements définis en amont du développement de l’algorithme.</p>
<p>&nbsp;</p>
<h2>ML or not ML: that may not be the question</h2>
<p>Malgré ses atouts indéniables, le <em>Machine Learning</em> est un <strong>outil à utiliser de manière raisonnée</strong> : les <em>frameworks</em> deviennent de plus en plus accessibles et simples d’utilisation, mais les étapes cruciales restent la <strong>définition du use-case</strong> et du <strong>modèle de comportement</strong>. Ces choix, où l’expertise métier est indispensable, influenceront de manière irréversible le choix des données, la sélection de l’algorithme de détection et les tests à effectuer.</p>
<p>La question n’est donc plus « Où puis-je mettre du <em>Machine Learning</em> dans mon SOC ? », mais « Parmi toutes les approches disponibles, <strong>quelle est la plus efficace</strong> pour répondre à mon problème ? ».</p>
<p>Pour le savoir, une seule solution : allumez les fourneaux !</p>
<p>&nbsp;</p>
<table style="width: 100%; border-collapse: collapse; background-color: #dbceeb; border-color: #080707;">
<tbody>
<tr>
<td style="width: 100%;">
<h2 style="text-align: left;">Pour aller plus loin&#8230;</h2>
<p style="text-align: left;">Voici les outils utilisés lors de notre POC :</p>
<ul style="text-align: left;">
<li><strong>IDE</strong>
<ul>
<li><strong>Pycharm</strong>: environnement de développement clair et pratique avec une gestion des bibliothèques efficace</li>
</ul>
</li>
<li><strong>Langage</strong>
<ul>
<li><strong>Python</strong>: langage très largement utilisé dans le domaine de la Data Science possédant de nombreuses bibliothèques performantes</li>
</ul>
</li>
<li><strong>Bibliothèques</strong>
<ul>
<li><strong>Scikit-learn</strong>: bibliothèque de Machine Learning complète (supervisé, non supervisé…)</li>
<li><strong>Pandas</strong>: traitement complexe de tableaux de données</li>
<li><strong>Numpy</strong>: manipulation de matrices et vecteurs</li>
<li><strong>Matplotlib, </strong><strong>Seaborn</strong>: affichage de graphiques pour la visualisation</li>
</ul>
</li>
</ul>
</td>
</tr>
</tbody>
</table>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2019/08/detecter-incidents-machine-learning/">Détecter des incidents cyber par Machine Learning : notre maquette en 5 étapes clefs !</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>L’INTERVIEW D’UBBLE – VERIFICATION D’IDENTITE VIA LA VIDEO</title>
		<link>https://www.riskinsight-wavestone.com/2018/08/interview-ubble-verification-identite-video/</link>
		
		<dc:creator><![CDATA[Gabriel Amirault]]></dc:creator>
		<pubDate>Tue, 07 Aug 2018 16:05:06 +0000</pubDate>
				<category><![CDATA[Cybersecurity & Digital Trust]]></category>
		<category><![CDATA[Digital Identity]]></category>
		<category><![CDATA[Banque]]></category>
		<category><![CDATA[BCSIA]]></category>
		<category><![CDATA[IAM]]></category>
		<category><![CDATA[identity & access management]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=11162/</guid>

					<description><![CDATA[<p>Dans le cadre des Banking CyberSecurity Innovation Awards, ubble a reçu le prix IA et lutte contre la fraude. Elle permet aux consommateurs de confirmer facilement et en toute sécurité leur identité en ligne et d&#8217;utiliser dans le monde digital...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2018/08/interview-ubble-verification-identite-video/">L’INTERVIEW D’UBBLE – VERIFICATION D’IDENTITE VIA LA VIDEO</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><em>Dans le cadre des Banking CyberSecurity Innovation Awards, <strong>ubble</strong> a reçu le prix <strong>IA et lutte contre la fraude</strong>. Elle permet aux consommateurs de confirmer facilement et en toute sécurité leur identité en ligne et d&rsquo;utiliser dans le monde digital leurs documents d’identité physique régaliens de façon fiable, pratique, et respectueuse de la vie privée. Voici l’interview de sa représentante, Juliette Delanoë qui détaille pour nous comment sa solution contribue à la cybersécurité de la banque de demain.</em></p>
<h2>Comment l&rsquo;idée vous est-elle venue ?</h2>
<p><strong>Juliette Delanoë</strong> évoque l&rsquo;importance de la transformation digitale des grands groupes : « <em>de plus en plus de biens et services peuvent être souscrits ou consommés en ligne. En particulier, la vérification des identités en ligne est un enjeu fondamental pour que la révolution digitale soit vecteur de progrès durable pour la société »</em>. La combinaison des expériences des fondateurs a permis de développer un produit permettant via le flux vidéo, d&rsquo;identifier « <em>et de protéger les individus dans le monde digital, en permettant d’y utiliser les documents d’identité physique régaliens de façon fiable, pratique, et respectueuse de la vie privée ».</em></p>
<h2>Quel est le plus grand risque de sécurité pour les banques et pour ses clients selon vous ? Comment répondez-vous à la menace qui pèse sur les banques ?</h2>
<p><strong>Juliette Delanoë</strong> met en parallèle l&rsquo;importance d&rsquo;avoir des parcours digitaux agréables et rapides pour leurs utilisateurs et la nécessité d&rsquo;en assurer la sécurité : « <em>l’entrée en relation, étape très critique de l’expérience utilisateur, avait lieu il y a quelques années exclusivement en boutique, mais avec l’arrivée des néo-banques, et de la génération des millenials, cette étape se digitalise et s’automatise rapidement</em> ». Il convient donc de conserver cette opportunité mais de faire attention aux enjeux sécuritaires qui se dessinent et notamment aux « <em>nouveaux types de fraudes propre au digital qui se développent – comme l’utilisation de faux documents d’identité pour ouvrir un compte bancaire en ligne »</em>.</p>
<h2>L&rsquo;enjeu pour les RSSI aujourd&rsquo;hui est de parvenir à concilier la facilité d&rsquo;implémentation, la simplicité d&rsquo;utilisation des solutions de sécurité avec une technologie sécurisée. Comment convaincre un RSSI de la pertinence de votre solution et de la sécurité du produit ? Quels sont les différenciateurs qui vous démarquent sur le marché ?</h2>
<p><strong>Ubble </strong>propose aux RSSIs de tester la solution en partageant sa conviction profonde que « <em>le mouvement (donc la vidéo) est indispensable à la vérification des visages comme des documents (hologrammes, reflets), et nous développons des technologies qui vérifient les identités non pas sur la base de simples images, mais sur un flux de vidéo en streaming »</em>. En effet, les streams vidéo, la computer vision et le deep learning permettent d&rsquo;éviter la fraude. Ainsi il n&rsquo;est pas possible de « <em>présenter un document d&rsquo;identité qui soit une simple photocopie [ou …] d&rsquo;utiliser le document de quelqu&rsquo;un d&rsquo;autre »</em>. L&rsquo;atout de la solution réside également dans une expérience utilisateur aisée et agréable pour un client de bonne foi.</p>
<h2>Quelles sont les synergies entre votre innovation et les solutions de sécurité bancaires existantes à l&rsquo;heure actuelle ?</h2>
<p><strong>Ubble</strong> explique : « <em>nos technologies répondent à une faille sécuritaire nouvellement créée, que les solutions existantes n’adressent pas, ou seulement partiellement. Nos technologies sont en parfaite synergie avec les systèmes mis en place par les banques, et viennent s’ajouter pour combler la faille sécuritaire créée lors de la digitalisation et de l’automatisation de l’entrée en relation</em> ».</p>
<h2>Comment voyez-vous la banque de demain en 3 tendances ? Quelles opportunités pour la cybersécurité dans la banque de demain ?</h2>
<p>Selon <strong>ubble</strong>, le futur verra l&rsquo;apparition d&rsquo;un nouveau rôle pour la banque : la banque de demain « <em>sera un des services les plus sécurisé dans le monde digital</em> ». La start-up prévoit ainsi que « <em>la banque de demain [sera amenée à jouer] un rôle sécuritaire fort dans le monde digital en général. En tant qu’acteur de confiance qui connaît ses clients, elle pourra attester de leur identité auprès d’autres fournisseurs de services </em>».</p>
<p>Pour en savoir plus : <a href="http://www.ubble.ai">http://www.ubble.ai</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2018/08/interview-ubble-verification-identite-video/">L’INTERVIEW D’UBBLE – VERIFICATION D’IDENTITE VIA LA VIDEO</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
