<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>agents IA - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/agents-ia/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/agents-ia/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Thu, 09 Apr 2026 08:53:34 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>agents IA - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/agents-ia/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Sécuriser les agents IA : pourquoi l’IAM devient central</title>
		<link>https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/</link>
					<comments>https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/#respond</comments>
		
		<dc:creator><![CDATA[Mathis SIGIER]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 08:53:32 +0000</pubDate>
				<category><![CDATA[Cyberrisk Management & Strategy]]></category>
		<category><![CDATA[Digital Identity]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[agents IA]]></category>
		<category><![CDATA[Cybersécurité]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[IA agentique]]></category>
		<category><![CDATA[IAM]]></category>
		<category><![CDATA[Identity and Access Management]]></category>
		<category><![CDATA[Intelligence Artificielle]]></category>
		<category><![CDATA[sécurité SI]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=29612</guid>

					<description><![CDATA[<p>L’essor des agents IA redéfinit les enjeux de sécurité du système d’information   L’intelligence artificielle s’impose désormais comme un levier structurant pour les entreprises : 70%¹ l’ont déjà placée au cœur de leur stratégie. Jusqu’ici, la majorité des déploiements reposaient...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/">Sécuriser les agents IA : pourquoi l’IAM devient central</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<h2 style="text-align: justify;">L’essor des agents IA redéfinit les enjeux de sécurité du système d’information</h2>
<p> </p>
<p style="text-align: justify;">L’intelligence artificielle s’impose désormais comme un levier structurant pour les entreprises : 70%<a href="https://www.wavestone.com/en/insight/global-ai-survey-2025-ai-adoption/" target="_blank" rel="noopener">¹</a> l’ont déjà placée au cœur de leur stratégie. Jusqu’ici, la majorité des déploiements reposaient sur des assistants conversationnels capables de restituer de l’information, parfois enrichie par des données internes, mais dont les interactions avec le système d’information restaient limitées.</p>
<p style="text-align: justify;">Une rupture est désormais en cours : l’essor de l’IA agentique. Contrairement aux simples chatbots, les agents IA ne se contentent plus de répondre ; ils raisonnent, décident d’appeler des outils et déclenchent des actions. Ils peuvent envoyer un courriel, planifier un déplacement, mettre à jour un dossier, initier une transaction ou, demain, exécuter des opérations plus sensibles encore. Leur promesse en matière d’automatisation est considérable. Leur impact potentiel sur la surface d’attaque du système d’information l’est tout autant.</p>
<p style="text-align: justify;">Car dès lors qu’un système d’IA agit, une question devient centrale : au nom de qui agit-il, avec quels droits, dans quel périmètre, et sous quel contrôle ?</p>
<p style="text-align: justify;">Cette question est d’autant plus critique que les usages progressent rapidement : 51 %<a href="https://www.pagerduty.com/resources/ai/learn/companies-expecting-agentic-ai-roi-2025/" target="_blank" rel="noopener">²</a> des organisations ont déjà déployé un agent IA à destination de leurs collaborateurs, tandis que 59 %<a href="https://cybernews.com/ai-news/ai-shadow-use-workplace-survey/" target="_blank" rel="noopener">³</a> des salariés reconnaissent utiliser des agents IA non officiellement autorisés. Au-delà des usages individuels, chaque direction métier peut être tentée de déployer ses propres agents pour répondre à des besoins locaux. Ce phénomène alimente un Shadow IT agentique, dans lequel les agents se multiplient de manière fragmentée, avec des architectures hétérogènes, des contrôles variables et une gouvernance souvent lacunaire.</p>
<p style="text-align: justify;">Dans ce contexte, l’Identity and Access Management (IAM) doit redevenir le centre de gravité de la stratégie de sécurité. Toute donnée qu’un agent peut consulter, toute ressource qu’il peut modifier, toute action qu’il peut exécuter doivent relever d’un dispositif de contrôle d’accès, de traçabilité et de gouvernance centralisé.</p>
<p style="text-align: justify;">Cet article propose d’analyser la sécurisation des agents IA à travers le prisme de l’IAM, non comme une brique parmi d’autres, mais comme l’un des garde-fous structurants pour encadrer leurs usages et protéger durablement le système d’information.</p>
<p> </p>
<h2 style="text-align: justify;">Des assistants conversationnels aux agents IA : comment ils interagissent avec le SI</h2>
<p> </p>
<h3 style="text-align: justify;">Par quels mécanismes un agent IA peut-il agir sur une application ?</h3>
<p style="text-align: justify;">La capacité d’un agent IA à interagir avec les applications du système d’information repose sur l’émergence de nouveaux protocoles, parmi lesquels le Model Context Protocol (MCP) occupe aujourd’hui une place croissante. Ce type de protocole permet à un agent IA de dialoguer avec des applications tierces via une couche intermédiaire, souvent matérialisée par une brique IT appelé serveur MCP.</p>
<p style="text-align: justify;">Ce serveur MCP agit comme un composant d’exposition et d’orchestration. Il reçoit des requêtes émises par un modèle d’IA, les traduit en appels exploitables, puis les relaie vers les API de l’application cible.  Pour cela, le serveur MCP met à disposition du modèle des outils (“tools”) décrivant les actions qu’il est autorisé à invoquer. Une fois le serveur déclaré dans l’interface conversationnelle ou dans l’environnement de l’agent, le modèle peut décider, en fonction de la demande utilisateur et de son raisonnement, d’appeler un ou plusieurs de ces outils.</p>
<p style="text-align: justify;">D’un point de vue sécurité, cela introduit une question d’identité : comment l’utilisateur final est-il authentifié, et comment cette identité est-elle propagée — ou non — jusqu’aux services cibles ? Dans les architectures modernes, l’authentification utilisateur repose généralement sur OpenID Connect (OIDC), tandis que l’autorisation d’accès aux API repose sur OAuth 2.x via des jetons d’accès. L’enjeu, pour un agent, est de garantir que les appels aux outils et aux API soient réalisés dans un modèle contrôlé de délégation : l’agent agit-il avec ses propres droits, avec les droits de l’utilisateur, ou selon un mécanisme hybride ?</p>
<p><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-29614" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1.png" alt="Processus d'action pour serveur MCP" width="624" height="344" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1.png 624w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1-346x191.png 346w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/IAMxIAPicture1-71x39.png 71w" sizes="(max-width: 624px) 100vw, 624px" /></p>
<p style="text-align: justify;">Illustrons ce fonctionnement à travers un cas d&rsquo;usage : la planification d&rsquo;une réunion par un agent IA. L’utilisateur formule sa demande dans l’interface conversationnelle : « Planifie une réunion avec l’équipe demain à 10h ». L’agent IA analyse la requête et décide d’utiliser l’outil « Calendrier » mis à disposition par le serveur MCP. Il envoie alors une requête structurée à ce serveur, contenant uniquement les informations nécessaires à la création de l’événement (participants, date, heure, sujet). Le serveur MCP relaie cette demande à l’API du calendrier d’entreprise, qui permet de créer la réunion.</p>
<p style="text-align: justify;">En apparence, le mécanisme est simple. En pratique, il introduit un changement majeur : le modèle ne se contente plus d’assister l’utilisateur ; il devient un intermédiaire actif entre l’intention humaine et l’exécution technique dans le SI.</p>
<p> </p>
<h3 style="text-align: justify;">Un mode de fonctionnement opaque</h3>
<p style="text-align: justify;">Cette architecture soulève immédiatement une difficulté de sécurité : dans de nombreux cas, le composant d’intégration ne dispose que d’une visibilité partielle sur le contexte d’origine. Il reçoit une requête structurée, mais pas nécessairement l’intégralité de la requête initiale, des arbitrages du modèle ou des éléments qui ont conduit au choix de l’outil invoqué. Le système d’information voit alors arriver une action, sans toujours pouvoir reconstituer de manière fiable la chaîne complète qui relie la demande utilisateur, le raisonnement du modèle, l’appel d’outil et l’effet final produit. Cette perte de contexte est d’autant plus critique lorsque l’appel à l’API est porté par un jeton OAuth : selon l’architecture, le service cible peut ne voir qu’une identité applicative (compte de service / application) et non l’utilisateur réel à l’origine de la demande. Cela fragilise l’attribution, la détection d’abus et la capacité à appliquer des politiques conditionnelles différenciées entre action humaine et action agentique.</p>
<p style="text-align: justify;">Autrement dit, l’agent interagit avec le SI selon une logique partiellement opaque, qui rompt avec les schémas plus traditionnels d’interaction applicative. Cette opacité complique le contrôle en temps réel, la traçabilité ex post, ainsi que l’attribution claire de responsabilité.</p>
<p> </p>
<h2 style="text-align: justify;">Une technologie émergente qui pose des défis de sécurité</h2>
<p> </p>
<p style="text-align: justify;">L’IA agentique introduit des cas d’usage nouveaux, mais aussi des risques nouveaux, qui doivent être analysés et traités au niveau de l’IAM. Quatre défis apparaissent comme particulièrement structurants.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 1 : Recenser les agents IA </h3>
<p style="text-align: justify;">Le premier défi est celui de la visibilité. Dans de nombreuses organisations, il n’existe aujourd’hui ni cartographie exhaustive des agents IA déployés, ni inventaire consolidé des outils auxquels ils sont connectés.</p>
<p style="text-align: justify;">Cette situation résulte de deux dynamiques :</p>
<ul style="text-align: justify;">
<li>D’une part, les usages se développent souvent en dehors des circuits de gouvernance historiques : certaines équipes déploient des agents pour leurs besoins propres, sans associer en amont les équipes sécurité, IAM ou architecture et dans parfois dans des solutions plateformes qui permettent à chacun de construire ses propres usages.</li>
<li>D’autre part, les modalités techniques d’intégration sont diverses. Le MCP constitue une approche montante, mais il coexiste avec des intégrations propriétaires, des connecteurs natifs à certains écosystèmes, des mécanismes d’exécution locale de code, ou encore des capacités embarquées directement dans les plateformes des éditeurs.</li>
</ul>
<p style="text-align: justify;">Le sujet n’est donc pas seulement celui du recensement des agents eux-mêmes, mais celui de l’identification de l’ensemble de la chaîne d’exécution : agent, interface, outils exposés, applications cibles, comptes utilisés, données manipulées et flux générés. Sans cette visibilité, aucune gouvernance sérieuse n’est possible.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 2 : Attribuer et gouverner les droits des agents IA</h3>
<p style="text-align: justify;">Le deuxième défi concerne l’autorisation. Les modèles IAM traditionnels ne disposent pas encore, dans la plupart des environnements, d’un objet natif et généralisé permettant de représenter proprement un agent IA comme une identité gouvernable à part entière.</p>
<p style="text-align: justify;">En pratique, les composants intermédiaires sont fréquemment enregistrés comme des applications techniques ou opèrent à l’aide de comptes de service. Il en résulte plusieurs dérives connues : droits trop larges, absence de séparation fine entre les capacités d’un agent et celles du composant qui l’héberge, difficulté à appliquer le moindre privilège, et impossibilité de différencier clairement une action humaine directe d’une action exécutée par un agent.</p>
<p style="text-align: justify;">Le risque est majeur : l’agent n’exécute plus seulement une intention métier ; il devient un vecteur d’accès indirect au SI, parfois avec un niveau de privilège supérieur à ce qui serait acceptable pour un utilisateur ou une application classique.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 3 : Authentifier un agent IA</h3>
<p style="text-align: justify;">L’authentification constitue le troisième défi, à deux niveaux distincts. Il faut d’abord authentifier correctement l’utilisateur final, afin de garantir que l’agent n’agit pas dans un vide identitaire. Mais il faut également authentifier l’agent lui-même, ou à tout le moins le composant qui agit pour son compte, afin de pouvoir lui appliquer des politiques spécifiques, des restrictions adaptées et des exigences de supervision proportionnées.</p>
<p style="text-align: justify;">Cette double exigence est nouvelle par son intensité : avec les agents IA, le système doit simultanément gérer l’identité du demandeur, l’identité du système exécutant, et la relation précise entre les deux.</p>
<p> </p>
<h3 style="text-align: justify;">Défi 4 : Tracer les actions réalisées par les agents IA</h3>
<p style="text-align: justify;">Le dernier défi est celui de la traçabilité. Dans de nombreuses architectures actuelles, les journaux permettent surtout d’observer l’appel technique émis vers le service cible. En revanche, il reste difficile de reconstituer de manière fiable :</p>
<ul style="text-align: justify;">
<li>quel utilisateur est à l’origine de la demande ;</li>
<li>quel agent a décidé ou exécuté l’action ;</li>
<li>dans quel contexte métier l’appel a été réalisé ;</li>
<li>quelles étapes intermédiaires ont conduit à l’exécution finale.</li>
</ul>
<p style="text-align: justify;">Ce déficit d’auditabilité fragilise à la fois la détection, l’investigation et la responsabilité. Lorsqu’une action sensible est déclenchée, il doit être possible de déterminer si elle résulte d’une instruction légitime, d’une mauvaise interprétation, d’une dérive autonome, d’un abus de privilège ou d’une compromission du contexte d’entrée, par exemple via une attaque de type prompt injection.</p>
<p> </p>
<h2 style="text-align: justify;">L&rsquo;IAM comme cadre de référence pour sécuriser les agents IA</h2>
<p> </p>
<h3 style="text-align: justify;">Les grands principes IAM restent inchangés</h3>
<p style="text-align: justify;">Face à cette transformation, un point doit être clairement affirmé : les fondamentaux de l’IAM ne disparaissent pas avec l’IA agentique. Au contraire, ils redeviennent essentiels.</p>
<p style="text-align: justify;">Un système d’information maîtrisé repose sur quelques principes simples et robustes :</p>
<ul style="text-align: justify;">
<li>centraliser l’authentification autant que possible autour d’un fournisseur d’identité de référence ;</li>
<li>éviter les comptes génériques lorsqu’un usage nominatif est possible ;</li>
<li>limiter les privilèges au strict nécessaire ;</li>
<li>gouverner les habilitations dans la durée ;</li>
<li>tracer les accès et les actions ;</li>
<li>distinguer clairement les rôles, les responsabilités et les périmètres d’exécution.</li>
</ul>
<p style="text-align: justify;">L’arrivée des agents IA ne remet pas en cause ces principes. En revanche, elle révèle leurs angles morts actuels et impose de faire évoluer la gouvernance comme les mécanismes techniques. Ce n’est pas l’IAM qu’il faut réinventer ; c’est son modèle d’application qu’il faut adapter à une nouvelle catégorie d’acteurs numériques, capables de prendre des initiatives et de déclencher des effets dans le SI.</p>
<p> </p>
<h3 style="text-align: justify;">Une trajectoire de sécurisation en quatre étapes</h3>
<h4>1. Recenser les cas d’usage et les agents</h4>
<p style="text-align: justify;">La première étape consiste à obtenir une visibilité exhaustive. Cela suppose d’identifier :</p>
<ul style="text-align: justify;">
<li>les agents déployés ;</li>
<li>les environnements dans lesquels ils opèrent ;</li>
<li>les outils et connecteurs qu’ils utilisent ;</li>
<li>les applications qu’ils peuvent atteindre ;</li>
<li>les comptes, identités techniques ou jetons qu’ils mobilisent ;</li>
<li>les données qu’ils peuvent lire, modifier ou transmettre.</li>
</ul>
<p style="text-align: justify;">Cette cartographie n’est pas un exercice documentaire accessoire : elle constitue la condition préalable à toute politique de contrôle d’accès cohérente. Pour la réaliser, des outils du marché émerge, comme la solution Agent 365 de Microsoft.</p>
<h4>2. Introduire un type d’identité spécifique pour les agents IA</h4>
<p style="text-align: justify;">La deuxième étape consiste à reconnaître les agents IA comme une catégorie spécifique d’identités non humaines. Ce marquage est essentiel, car il permet d’appliquer des politiques différenciées : interdiction de certaines actions, limitation à certains périmètres, exigences de validation préalable, surveillance renforcée ou restrictions conditionnelles.</p>
<p style="text-align: justify;">Cette distinction est structurante. Une application classique n’a pas le même niveau d’autonomie, ni le même profil de risque, qu’un agent IA capable de sélectionner lui-même un outil, d’enchaîner plusieurs actions ou de réagir à un contexte ambigu. L’IAM doit donc être en mesure de dire non seulement qui agit, mais aussi de quelle manière le système agit.</p>
<p style="text-align: justify;">À titre d’exemple, un utilisateur peut disposer du droit d’envoyer un courriel ou de créer un ordre de modification. Cela ne signifie pas qu’un agent puisse exécuter cette action sans garde-fou. Selon la sensibilité du processus, une politique dédiée peut imposer une validation humaine, un périmètre restreint ou une interdiction pure et simple.</p>
<h4>3. Rattacher l’authentification et la gestion des droits à un fournisseur d’identité unique et à l’utilisateur final</h4>
<p style="text-align: justify;">La troisième étape consiste à ramener l’authentification dans le giron d’un fournisseur d’identité central, afin que les droits soient gouvernés de manière homogène. L’objectif est double : éviter le recours incontrôlé à des comptes techniques sur-privilegiés, et faire en sorte que l’agent opère, autant que possible, dans la limite des habilitations de l’utilisateur à l’origine de la demande.</p>
<p style="text-align: justify;">Cela ne signifie pas que l’agent doit être transparent du point de vue de la sécurité. Au contraire, l’enjeu est de pouvoir appliquer une logique du type : « même si l’utilisateur a le droit, l’agent n’a pas nécessairement le droit de le faire seul, dans n’importe quel contexte, et sans contrôle complémentaire ».</p>
<h4>4. Mettre en place une approbation humaine avant certaines actions initiées par les agents</h4>
<p style="text-align: justify;">La sécurisation des agents IA ne peut pas reposer exclusivement sur l’authentification et l’autorisation. Elle suppose aussi de définir le niveau d’autonomie acceptable selon la criticité des actions concernées.</p>
<p style="text-align: justify;">Trois modèles sont classiquement distingués.</p>
<p style="text-align: justify;"><strong>Human-in-the-loop</strong></p>
<p style="text-align: justify;">C’est le mode le plus protecteur. L’agent prépare l’action, mais son exécution reste conditionnée à une validation explicite. Ce schéma doit être privilégié pour les opérations sensibles : mouvement financier, modification de droits, envoi externe engageant l’entreprise, accès à des données sensibles, action à effet irréversible, etc.</p>
<p style="text-align: justify;">Son intérêt est majeur : la validation finale est portée par une interface de contrôle indépendante du raisonnement de l’agent. Même si le modèle a été influencé, manipulé ou simplement trompé, l’utilisateur ou l’opérateur conserve la maîtrise de la décision.</p>
<p style="text-align: justify;"><strong>Human-over-the-loop</strong></p>
<p style="text-align: justify;">Dans ce modèle, l’humain ne valide pas chaque action individuellement, mais <strong>supervise l’exécution</strong> et conserve une capacité d’interruption immédiate. Ce schéma peut convenir à des processus fréquents, encadrés et faiblement risqués, à condition que la surveillance soit réelle et que le mécanisme d’arrêt soit effectivement opérationnel.</p>
<p style="text-align: justify;"><strong>Human-out-of-the-loop</strong></p>
<p style="text-align: justify;">Ici, l’agent exécute de manière autonome, sans intervention humaine immédiate. Ce niveau d’autonomie ne devrait être envisagé que pour des usages à très faible criticité, dans des environnements strictement bornés, avec des périmètres d’action réduits, des mécanismes de contrôle compensatoires solides et une tolérance explicite au risque résiduel.</p>
<p style="text-align: justify;">Pour un RSSI, la logique est simple : plus l’impact métier, réglementaire ou sécurité est élevé, plus la boucle humaine doit être proche de l’exécution.</p>
<p> </p>
<h2 style="text-align: justify;">Une cible claire, mais encore freinée par plusieurs limites</h2>
<p> </p>
<h3 style="text-align: justify;">Obstacles fonctionnels</h3>
<p style="text-align: justify;">La cible de sécurisation peut être formulée de manière claire. Sa mise en œuvre se heurte toutefois à plusieurs obstacles majeurs d’un point de vue fonctionnel.</p>
<p style="text-align: justify;">Le premier concerne le manque de granularité des autorisations. Aujourd’hui, un utilisateur peut vouloir demander à un agent d’effectuer une action précise sur une ressource précise. Pourtant, les mécanismes disponibles imposent souvent des permissions bien plus larges que nécessaire. Traiter un courriel peut conduire à ouvrir l’accès à toute une boîte de messagerie ; planifier une réunion peut impliquer un accès étendu à l’agenda ; interagir avec un référentiel peut nécessiter des droits de lecture ou d’écriture bien au-delà du besoin exprimé. Ce décalage est particulièrement problématique dans un contexte agentique. Une IA étant par nature non déterministe dans sa manière de sélectionner et d’enchaîner ses actions, un accès trop large devient mécaniquement un risque disproportionné. Une adoption sécurisée suppose donc d’évoluer vers des mécanismes d’autorisation plus fins, contextualisés, temporaires et proportionnés à la requête réellement formulée.</p>
<p style="text-align: justify;">Le second obstacle porte sur l’authentification et la propagation de l’identité. Dans beaucoup de cas, les architectures actuelles reposent encore sur des comptes techniques, des secrets partagés ou des mécanismes d’authentification peu satisfaisants au regard d’une gouvernance IAM mature. La cible consiste au contraire à faire en sorte que chaque action soit reliée de manière explicite à (i) l’utilisateur à l’origine de la demande, et (ii) au fait qu’elle a été exécutée par un agent — ce qui implique de distinguer l’identité du demandeur et l’identité du système exécutant, tout en documentant la relation de délégation entre les deux.  En pratique, cela renvoie à des mécanismes de délégation contrôlée tels que les flux OAuth “On‑Behalf‑Of (OBO)” : l’agent (ou sa couche d’orchestration) appelle une API en portant une autorisation dérivée de l’utilisateur, mais avec des contraintes supplémentaires (portée limitée, durée réduite, contexte, politiques conditionnelles). L’objectif est de réduire la dépendance aux comptes techniques sur‑privilégiés tout en conservant une chaîne de responsabilité exploitable.  À ce stade, le marché ne propose toutefois pas encore un modèle totalement homogène et interopérable couvrant à la fois l’authentification, l’autorisation fine, la traçabilité et la gouvernance des agents à grande échelle.</p>
<p style="text-align: justify;">Dernier obstacle fondamental, la traçabilité : chaque action doit être liée de façon explicite à une chaîne de responsabilité intelligible. Sans cette capacité, il n’y a ni auditabilité robuste, ni contrôle effectif, ni gouvernance défendable devant les métiers, les auditeurs ou le régulateur. Et cela a un coût pour les SIEM&#8230;</p>
<p style="text-align: justify;"><img decoding="async" class="aligncenter size-full wp-image-29616" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR.png" alt="Chaîne de repsonsabilité des actions IA dans l'entreprise" width="1289" height="868" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR.png 1289w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR-284x191.png 284w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR-58x39.png 58w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/Picture2FR-768x517.png 768w" sizes="(max-width: 1289px) 100vw, 1289px" /></p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;">Un marché encore fragmenté, qui complique la sécurisation</h3>
<p style="text-align: justify;">Du point de vue des entreprises, la difficulté n’est pas seulement technique : elle est aussi liée à la maturité du marché. Les capacités agentiques se diffusent plus vite que les standards de sécurité et de gouvernance capables de les encadrer de manière homogène. Résultat : les organisations doivent composer avec des solutions hétérogènes, dont le modèle d’identité, d’audit et de contrôle varie fortement d’un éditeur à l’autre.</p>
<h4 style="text-align: justify;">Le MCP peut-il s’imposer comme standard de marché ?</h4>
<p style="text-align: justify;">Certains éditeurs exposent leurs applications via des serveurs MCP ou des mécanismes comparables, tandis que d’autres privilégient des intégrations natives, plus fermées, au sein de leur propre écosystème. Dans les faits, il n’existe pas encore de cadre pleinement homogène couvrant de manière satisfaisante les enjeux d’authentification, d’autorisation, de traçabilité, de gouvernance et de nomenclature des capacités exposées.</p>
<p style="text-align: justify;">Deux trajectoires peuvent être envisagées :</p>
<ul style="text-align: justify;">
<li>La première serait celle d’une convergence vers un socle standardisé, permettant l’interopérabilité des agents, des outils et des plateformes. Une telle évolution faciliterait le déploiement à grande échelle, améliorerait l’expérience utilisateur et rendrait possible une gouvernance plus cohérente à l’échelle de l’entreprise.</li>
<li>La seconde serait celle d’une fragmentation durable du marché. Dans ce scénario, chaque éditeur continuerait à privilégier ses propres mécanismes, ses propres objets de sécurité et ses propres modèles d’intégration. Les conséquences seraient lourdes pour les entreprises : multiplication des angles morts, hétérogénéité des contrôles, difficulté à centraliser la supervision et impossibilité pratique d’appliquer une politique IAM homogène sur l’ensemble du périmètre agentique.</li>
</ul>
<p style="text-align: justify;">À court terme, les signaux du marché suggèrent une co‑existence : des initiatives d’interopérabilité émergent, mais les grands éditeurs conservent des logiques d’écosystèmes intégrés. Pour un RSSI, cela impose de raisonner non seulement “outil par outil”, mais aussi en termes de capacité à gouverner un portefeuille d’agents sur un périmètre multi‑éditeurs.</p>
<h4 style="text-align: justify;">Vers des registres d’agents IA</h4>
<p style="text-align: justify;">La montée en puissance des agents IA justifie l’émergence d’un nouvel objet de gouvernance : le registre d’agents. Parce qu’un agent est un système autonome capable de déclencher des actions, il ne peut plus être traité comme un simple composant applicatif invisible. Il doit être identifié, qualifié, rattaché à un propriétaire, inscrit dans un cycle de vie, évalué en fonction de son périmètre d’action et soumis à des règles spécifiques.</p>
<p style="text-align: justify;">Ce registre doit, à terme, permettre de répondre à des questions simples mais décisives :</p>
<ul style="text-align: justify;">
<li>quels agents existent dans l’organisation ;</li>
<li>qui en est responsable ;</li>
<li>dans quel environnement opèrent-ils ;</li>
<li>à quels outils et à quelles données ont-ils accès ;</li>
<li>quels mécanismes d’authentification utilisent-ils ;</li>
<li>quelles validations humaines sont exigées ;</li>
<li>quels journaux produisent-ils ;</li>
<li>quand doivent-ils être revus, requalifiés, suspendus ou retirés.</li>
</ul>
<p style="text-align: justify;">Certains fournisseurs d’identité commencent à introduire des capacités dédiées à cette nouvelle catégorie d’identités non humaines. C’est un signal important. Mais la maturité du marché reste naissante, et la gouvernance ne pourra pas être déléguée aux seuls éditeurs. Le vrai sujet est avant tout d’entreprise : définir un modèle de responsabilité, de contrôle et de sécurité adapté à l’autonomie croissante des systèmes d’IA.</p>
<p> </p>
<h2 style="text-align: justify;">Quand s&rsquo;attaquer à l&rsquo;IAM des agents IA ? Maintenant !</h2>
<p> </p>
<p style="text-align: justify;">L’essor des agents IA marque une évolution majeure dans la transformation des systèmes d’information. En passant d’une logique d’assistance à une logique d’action, ces systèmes déplacent profondément les enjeux de sécurité : il ne s’agit plus seulement de maîtriser les données qu’une IA peut consulter, mais bien les <strong>actions qu’elle est en mesure d’exécuter</strong>, les <strong>droits qu’elle mobilise</strong> et les <strong>responsabilités qu’elle engage</strong>.</p>
<p style="text-align: justify;">Dans ce contexte, l’IAM s’impose comme un levier structurant. Il constitue le socle permettant de <strong>rendre visibles les agents</strong>, de <strong>maîtriser leurs habilitations</strong>, de <strong>tracer leurs actions</strong> et de <strong>définir les conditions dans lesquelles leur autonomie peut être acceptée</strong>. Autrement dit, la sécurisation des agents IA ne pourra pas reposer sur des mesures périphériques : elle suppose une approche de gouvernance intégrée, articulant identité, contrôle d’accès, supervision et validation humaine.</p>
<p style="text-align: justify;">Pour les organisations, l’enjeu n’est pas de freiner l’adoption de l’IA agentique, mais de l’<strong>encadrer dans un modèle de confiance soutenable</strong>. Cela implique dès aujourd’hui de poser des choix structurants : cartographier les usages, intégrer les agents dans les dispositifs IAM, distinguer les identités humaines et non humaines, adapter les politiques d’autorisation, et définir des garde-fous proportionnés à la criticité des actions confiées.</p>
<p style="text-align: justify;">À mesure que les architectures se standardiseront et que les offres du marché gagneront en maturité, les entreprises les mieux préparées seront celles qui auront traité les agents IA non comme de simples assistants innovants, mais comme de <strong>nouveaux acteurs du SI</strong>, soumis aux mêmes exigences de sécurité, de traçabilité et de gouvernance que tout composant critique.</p>
<p style="text-align: justify;">La question n’est donc plus de savoir si les agents IA trouveront leur place dans l’entreprise, mais <strong>dans quelles conditions de maîtrise</strong>. Pour les RSSI, le sujet est clair : la capacité à industrialiser l’IA agentique dépendra moins de la performance des modèles que de la robustesse du cadre IAM et de gouvernance mis en place pour l’encadrer.</p>
<p style="text-align: justify;">Si, vous aussi, vous vous interrogez sur la gestion des accès des agents IA ou souhaitez approfondir la sécurisation de ces nouveaux usages, nous serions ravis d’échanger avec vous. N’hésitez pas à nous solliciter pour partager vos enjeux ou explorer ensemble des pistes adaptées à votre contexte.</p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;">
<li>Wavestone<em> &#8211; Global AI Survey 2025  &#8211; </em><a href="https://www.wavestone.com/en/insight/global-ai-survey-2025-ai-adoption/"><em>AI Adoption and Its Paradoxes: Global AI survey 2025 | Wavestone</em></a><em>)</em></li>
<li>PagerDuty (2025) <em>More than Half of Companies (51%) Already Deployed AI Agents</em>. Pager Duty, March 2025. Available at: <a href="https://www.pagerduty.com/resources/ai/learn/companies-expecting-agentic-ai-roi-2025/">2025 Agentic AI ROI Survey Results</a> (Accessed: 2 January 2026)</li>
<li>Cybernews (2025) <em>Unapproved AI Tools in the Workplace</em>. September 2025. Available at: <a href="https://cybernews.com/ai-news/ai-shadow-use-workplace-survey/">https://cybernews.com/ai-news/ai-shadow-use-workplace-survey/</a> (Accessed: 2 January 2026).</li>
</ol>
<p style="text-align: justify;"> </p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/">Sécuriser les agents IA : pourquoi l’IAM devient central</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2026/04/securiser-les-agents-ia-pourquoi-liam-devient-central/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
