<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Autonomous Pentesting - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/autonomous-pentesting/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/autonomous-pentesting/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Tue, 07 Apr 2026 17:53:37 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Autonomous Pentesting - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/autonomous-pentesting/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>IA Agentique pour la Sécurité Offensive</title>
		<link>https://www.riskinsight-wavestone.com/2026/04/ia-agentique-pour-la-securite-offensive/</link>
					<comments>https://www.riskinsight-wavestone.com/2026/04/ia-agentique-pour-la-securite-offensive/#respond</comments>
		
		<dc:creator><![CDATA[Thomas Rousseau]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 14:42:48 +0000</pubDate>
				<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[Ethical Hacking & Incident Response]]></category>
		<category><![CDATA[Agentic AI]]></category>
		<category><![CDATA[AI Hallucinations]]></category>
		<category><![CDATA[Autonomous Pentesting]]></category>
		<category><![CDATA[ctf]]></category>
		<category><![CDATA[pentest]]></category>
		<category><![CDATA[Vulnerabilities]]></category>
		<category><![CDATA[Web pentesting]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=29660</guid>

					<description><![CDATA[<p>L’IA s’intègre désormais dans un nombre croissant de processus de sécurité offensive. Le changement le plus visible est l’essor de services appliquant des grands modèles de langage (LLM) et une orchestration agentique à des activités de test autonomes. Certains éditeurs...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/04/ia-agentique-pour-la-securite-offensive/">IA Agentique pour la Sécurité Offensive</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[




<p style="text-align: justify;">L’IA s’intègre désormais dans un nombre croissant de processus de sécurité offensive. Le changement le plus visible est l’essor de services appliquant des grands modèles de langage (LLM) et une orchestration agentique à des activités de test autonomes. Certains éditeurs sont présents depuis plusieurs années, d’autres sont apparus récemment, mais le rythme d’évolution s’est clairement accéléré au cours des six derniers mois.<br />L’offre commerciale comprend des plateformes éditeurs telles que Horizon3.ai / NodeZero, Pentera, XBOW et RunSybil, tandis que l’écosystème open source inclut des projets comme Strix, Shannon, PentAGI, PentestGPT et PentestAgent. Leurs positionnements diffèrent, mais tous cherchent à traduire l’adaptabilité des systèmes IA modernes en résultats concrets de sécurité offensive.<br />L’objectif de cet article n’est pas de comparer les éditeurs. Il s’agit plutôt de clarifier le fonctionnement des systèmes de pentest agentiques, les prérequis techniques qu’ils nécessitent, et les limites qui empêchent encore de les considérer comme des testeurs autonomes pleinement fiables.</p>
<p> </p>
<h2>Une architecture commune pour les tests offensifs agentiques</h2>
<p style="text-align: justify;">Le paysage actuel est composé d’outils hétérogènes aux stratégies produit et cas d’usage très variés : tests de sécurité web externe, revues d’infrastructure interne et Active Directory, évaluations de sécurité cloud, ou analyse de code source proche du pipeline CI/CD.</p>
<p style="text-align: justify;">Dans leurs meilleures configurations, les systèmes les plus aboutis sont aujourd’hui capables de mener des revues de sécurité statiques et dynamiques autonomes avec de fortes capacités de raisonnement, et un workflow qui ressemble souvent à la posture analytique d’un pentesteur humain.</p>
<figure id="attachment_29661" aria-describedby="caption-attachment-29661" style="width: 1511px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" class="size-full wp-image-29661" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/1-Capacite-de-raisonnement-autonome.png" alt="Capacité de raisonnement autonome" width="1511" height="767" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/1-Capacite-de-raisonnement-autonome.png 1511w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/1-Capacite-de-raisonnement-autonome-376x191.png 376w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/1-Capacite-de-raisonnement-autonome-71x36.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/1-Capacite-de-raisonnement-autonome-768x390.png 768w" sizes="(max-width: 1511px) 100vw, 1511px" /><figcaption id="caption-attachment-29661" class="wp-caption-text"><em>Capacité de raisonnement autonome</em></figcaption></figure>
<p style="text-align: justify;">L’efficacité de beaucoup de ces outils est évaluée en interne ou via des environnements de capture-the-flag, les CTF offrant un moyen objectif de comparer la profondeur de raisonnement, les capacités d’exploitation et l’usage des outils. Malgré la diversité des architectures, on retrouve les composants essentiels suivants dans la plupart des solutions :</p>
<figure id="attachment_29663" aria-describedby="caption-attachment-29663" style="width: 1818px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-29663" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/2-Architecture-standard-et-composants-dune-solution-agentique-de-pentest-automatise.png" alt="Architecture standard et composants d’une solution agentique de pentest automatisé" width="1818" height="580" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/2-Architecture-standard-et-composants-dune-solution-agentique-de-pentest-automatise.png 1818w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/2-Architecture-standard-et-composants-dune-solution-agentique-de-pentest-automatise-437x139.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/2-Architecture-standard-et-composants-dune-solution-agentique-de-pentest-automatise-71x23.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/2-Architecture-standard-et-composants-dune-solution-agentique-de-pentest-automatise-768x245.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/2-Architecture-standard-et-composants-dune-solution-agentique-de-pentest-automatise-1536x490.png 1536w" sizes="(max-width: 1818px) 100vw, 1818px" /><figcaption id="caption-attachment-29663" class="wp-caption-text"><em>Architecture standard et composants d’une solution agentique de pentest automatisé</em></figcaption></figure>
<ul>
<li style="text-align: justify;"><strong>Un orchestrateur : </strong>Cette couche coordonne les agents et leur parallélisme, gère les blocages et timeout, orchestre les workflows préconfigurés, et relie les composants en une chaîne d’exécution cohérente.</li>
<li style="text-align: justify;"><strong>Un LLM sous-jacent : </strong>Le modèle constitue le noyau cognitif du système, alternant boucles de raisonnement, invocation d’outils et création de sous-agents selon les besoins. La capacité à utiliser des outils est indispensable et les LLM « state-of-the-art » donnent généralement de meilleurs résultats.</li>
<li style="text-align: justify;"><strong>Une boîte à outils offensive : </strong>La plupart des plateformes s’appuient sur un kit d’outils conteneurisé globalement aligné sur un standard de type Kali. Le contenu exact varie selon les cas d’usage, mais l’outillage typiquement requis pour des tests web reste par exemple assez standard et limité. De nombreuses solutions permettent également à l’agent de télécharger des outils supplémentaires ou de cloner des dépôts GitHub à la demande.</li>
<li style="text-align: justify;"><strong>Un ensemble de « skills » ou packs de connaissance : </strong>Ces bibliothèques locales formalisent une expertise réutilisable, incluant des techniques d’attaque spécifiques à certaines technologies, des <em>cheatsheet</em> de pentesteurs, des workflows d’exploitation standards, ou bien des détails sur les vulnérabilités ou scénarios d’attaque récents</li>
</ul>
<p style="text-align: justify;">Cette dernière couche est souvent celle où les éditeurs peuvent se différencier le plus clairement. Des capacités solides de veille cyber, de Threat Hunting et de Cyber Threat Intelligence permettent d’actualiser en continu cette base de connaissances et d’améliorer la confiance dans la couverture réelle assurée par ces agents automatisés.</p>
<p style="text-align: justify;">Ces agents étant capables d’exécuter des actions offensives en environnements de production, l’observabilité et la supervision sont essentielles. La plupart des implémentations incluent donc journalisation, télémétrie, et rejeu de session, ainsi que des mécanismes d’approbation humaine pour certaines actions, ou des garde-fous distinguant les modules à faible risque des commandes ou chemins d’exploitation plus dangereux.</p>
<p style="text-align: justify;">Il est également important de distinguer les systèmes pleinement agentiques des produits qui n’utilisent l’IA que de façon sélective. En pratique, de nombreuses plateformes éditeurs reposent sur des workflows majoritairement déterministes, parfois orchestrés par des modèles plus petits et spécialisés, avant de déléguer uniquement les étapes d’exploitation les plus ambiguës à un modèle généraliste plus capable.</p>
<p> </p>
<h2>Étude de cas : efficacité</h2>
<h3>Étude de cas : CTF</h3>
<p style="text-align: justify;">Pour évaluer l’efficacité actuelle du pentest agentique, nous avons réalisé des tests d’une telle solution (Strix) avec plusieurs modèles différents sur un ensemble interne de challenges CTF Wavestone pour lesquels aucun write-up public n’était disponible. L’objectif n’était pas de comparer des produits entre eux, mais de comprendre comment la qualité du modèle influence les résultats, sur un cas d’usage web.</p>
<p style="text-align: justify;">Le choix de l’exploitation web est pertinent, combinant une large couverture thématique avec des niveaux de difficulté variés. Toutefois, l’exercice ne doit pas être sur-généralisé : il ne représente pas fidèlement d’autres contextes spécifiques tels que les tests internes ou les évaluations Active Directory.</p>
<figure id="attachment_29665" aria-describedby="caption-attachment-29665" style="width: 1849px" class="wp-caption aligncenter"><img decoding="async" class="size-full wp-image-29665" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/3-Benchmark-d‘un-ensemble-de-LLMs-sur-des-challenges-CTF-internes.png" alt="Benchmark d‘un ensemble de LLMs sur des challenges CTF internes" width="1849" height="746" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/3-Benchmark-d‘un-ensemble-de-LLMs-sur-des-challenges-CTF-internes.png 1849w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/3-Benchmark-d‘un-ensemble-de-LLMs-sur-des-challenges-CTF-internes-437x176.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/3-Benchmark-d‘un-ensemble-de-LLMs-sur-des-challenges-CTF-internes-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/3-Benchmark-d‘un-ensemble-de-LLMs-sur-des-challenges-CTF-internes-768x310.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/3-Benchmark-d‘un-ensemble-de-LLMs-sur-des-challenges-CTF-internes-1536x620.png 1536w" sizes="(max-width: 1849px) 100vw, 1849px" /><figcaption id="caption-attachment-29665" class="wp-caption-text"><em>Benchmark d‘un ensemble de LLMs sur des challenges CTF internes</em></figcaption></figure>
<p style="text-align: justify;">Plusieurs conclusions ont émergé de cet exercice :</p>
<ul style="text-align: justify;">
<li>Les résultats ne deviennent véritablement impressionnants que lorsque le système est associé à un modèle LLM de pointe.</li>
<li>À l’inverse, les modèles pouvant réaliste​ment tourner sur un poste de travail haut de gamme tendent encore à produire des performances médiocres en test offensif, ce qui fait des fournisseurs IA SaaS la seule solution effective aujourd’hui.</li>
<li>Des modèles puissants peuvent toutefois manquer des vulnérabilités exploitables, tandis que certains modèles de grande taille, mais moins optimisés, peuvent sous-performer, potentiellement car Strix n’a pas été conçu et calibré pour eux.</li>
<li>Des modèles plus petits font parfois preuve d’éclairs de génie, résolvant des challenges qui résistent aux modèles plus puissants.</li>
<li>Sans surprise, on observe une tendance persistante à l’hallucination de chemins d’exploitation, notamment lorsque les LLM atteignent une impasse (dans les CTF, cela se manifeste souvent par des flags inventés).</li>
<li>Pour ne pas polluer leur contexte avec de grands volumes de données, les agents ont tendance à tronquer massivement les données (pages web, fichiers de code, …) et à être trop spécifiques dans leurs recherches (“grep” ou “find”). Dans les deux cas, ce comportement peut limiter leur couverture du périmètre et leur efficacité globale.</li>
</ul>
<p style="text-align: justify;">Ces résultats doivent être interprétés avec prudence. Pour chaque modèle et chaque challenge, le benchmark a été limité à au plus deux exécutions. Dans plusieurs cas, un modèle pouvait être très proche de la solution avant d’halluciner la dernière étape, ou nécessiter une intervention humaine pour clore l’investigation. Typiquement, ces cas pourraient être rattrapés par une revue humain.</p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Il est clair que les meilleurs résultats du benchmark ont été obtenus avec des modèles propriétaires de pointe. D’après nos observations, ces modèles peuvent résoudre une part substantielle des tâches offensives tout en restant opérationnellement abordables; du moins tant que les sessions convergent rapidement.</p>
<figure id="attachment_29667" aria-describedby="caption-attachment-29667" style="width: 1576px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-29667" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5.png" alt="Performance et métriques clés de consommation pour GPT-5" width="1576" height="886" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5.png 1576w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5-340x191.png 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5-768x432.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5-1536x864.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/4-Performance-et-metriques-cles-de-consommation-pour-GPT-5-800x450.png 800w" sizes="auto, (max-width: 1576px) 100vw, 1576px" /><figcaption id="caption-attachment-29667" class="wp-caption-text"><em>Performance et métriques clés de consommation pour GPT-5</em></figcaption></figure>
<p> </p>
<figure id="attachment_29669" aria-describedby="caption-attachment-29669" style="width: 1588px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-29669" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6.png" alt="Performance et métriques clés de consommation pour Sonnet4.6" width="1588" height="892" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6.png 1588w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6-340x191.png 340w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6-69x39.png 69w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6-768x431.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6-1536x863.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/5-Performance-et-metriques-cles-de-consommation-pour-Sonnet4.6-800x450.png 800w" sizes="auto, (max-width: 1588px) 100vw, 1588px" /><figcaption id="caption-attachment-29669" class="wp-caption-text"><em>Performance et métriques clés de consommation pour Sonnet4.6</em></figcaption></figure>
<p style="text-align: justify;">Ce que cela nous montre :</p>
<ul>
<li style="text-align: justify;">Le coût par challenge peut rester relativement modeste, de l’ordre de quelques euros lorsque l’agent converge efficacement.</li>
<li style="text-align: justify;">L’exécution peut être étonnamment rapide, avec de nombreux CTF résolus en moins de cinq minutes lorsque le modèle identifie le bon chemin tôt dans son investigation.</li>
<li style="text-align: justify;">Les échecs peuvent se révéler coûteux. Sans garde-fous stricts sur la durée et le budget, la consommation de tokens peut augmenter considérablement, et ce sur quelques heures.</li>
<li style="text-align: justify;">Dans notre configuration, le taux de réussite des modèles commerciaux de pointe étaient identiques, mais l’efficacité variait substantiellement en termes de temps, de consommation de tokens et de nombre d’invocations d’outils. De façon surprenante, dans ce contexte CTF, malgré un prix au token plus élevé pour Sonnet 4.6, le coût total des sessions tend à s&rsquo;équilibrer avec GPT-5, le modèle d&rsquo;Anthropic compensant par une meilleure efficacité en tokens. </li>
</ul>
<p> </p>
<h3>Étude de cas : application web réelle</h3>
<p style="text-align: justify;">Pour compléter les benchmarks CTF, nous avons également testé l’une de nos applications web développées en interne (utilisée pour la gestion des RH et des performances). Le système a été évalué avec plusieurs approches, notamment des modes authentifiés dans lesquels l’agent se voit fournir des identifiants ou des jetons d’authentification.</p>
<p style="text-align: justify;">Au cours d’une session représentative, 25 agents et sous-agents ont été déployés, 366 appels d’outils ont été exécutés, pour un coût total d’environ 5 USD, la session ayant duré environ une heure. Le rapport généré automatiquement affichait une synthèse managériale, une section méthodologique orientée OWASP, des conclusions techniques avec scoring CVSS v3, ainsi qu’une feuille de route de remédiation priorisée.</p>
<figure id="attachment_29671" aria-describedby="caption-attachment-29671" style="width: 657px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-29671" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/6-Hierarchie-dagents-deployee-lors-dune-revue-de-securite-automatisee.png" alt="Hiérarchie d’agents déployée lors d’une revue de sécurité automatisée" width="657" height="716" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/6-Hierarchie-dagents-deployee-lors-dune-revue-de-securite-automatisee.png 657w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/6-Hierarchie-dagents-deployee-lors-dune-revue-de-securite-automatisee-175x191.png 175w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/6-Hierarchie-dagents-deployee-lors-dune-revue-de-securite-automatisee-36x39.png 36w" sizes="auto, (max-width: 657px) 100vw, 657px" /><figcaption id="caption-attachment-29671" class="wp-caption-text"><em>Hiérarchie d’agents déployée lors d’une revue de sécurité automatisée</em></figcaption></figure>
<p style="text-align: justify;">Les résultats sont mitigés, mais globalement instructifs après revue humaine et re-test :</p>
<ul style="text-align: justify;">
<li style="text-align: justify;">L’agent a identifié plusieurs axes d’amélioration mineurs mais pertinents, bien que les conclusions n’aient pas toujours été bien contextualisées et aient pu devenir excessivement alarmistes.</li>
<li style="text-align: justify;">Lacune critique : l&rsquo;agent a complètement manqué une interface d&rsquo;administration exposée avec des identifiants par défaut; une vulnérabilité qu&rsquo;aucun pentesteur humain n&rsquo;aurait ignorée. C&rsquo;est l&rsquo;illustration la plus nette du plafond de fiabilité actuel de ces systèmes.</li>
<li style="text-align: justify;">De plus, le rapport présentait également une vulnérabilité inexistante (confusion d’algorithme JWT) relevée comme critique, accompagné de scripts <em>Proof-of-Exploitation</em> ne fonctionnant logiquement pas. Cela illustre le risque persistant de faux positifs au sein des LLM.</li>
</ul>
<p style="text-align: justify;">Plusieurs remarques complémentaires :</p>
<ul style="text-align: justify;">
<li>Comme pour les benchmarks CTF, la qualité de la revue s&rsquo;améliore significativement avec un modèle SaaS de pointe.</li>
<li>La nature non déterministe des LLM reste visible : deux exécutions peuvent produire des conclusions et des rapports substantiellement différents pour une même cible.</li>
<li>Si les contrôles de périmètre sont insuffisants, certains modèles ont une tendance à élargir le périmètre du pentest, sondant des ports, applications ou sous-domaines adjacents.</li>
<li>La couverture et la pertinence s’améliorent nettement en modes boîte blanche ou hybride boîte blanche/boîte grise, où l’agent peut inspecter le code source, identifier des faiblesses candidates, puis tenter de les valider dynamiquement sur l’application en production. Même dans ce cas, certains agents peuvent encore se focaliser sur des problèmes inexistants. De plus, en boîte blanche, de très grandes bases de code peuvent saturer le système et réduire l’efficacité globale.</li>
<li>Les capacités de ces solutions à émuler un comportement humain a nettement progressé, notamment les interactions pilotées avec les navigateurs web. Toutefois, certains types d’applications restent difficiles à évaluer de manière autonome, notamment des cas de figures « multi-fenêtres » ou les clients lourds, pour lesquels une interaction navigateur en mode <em>headless</em> peut ne pas suffire.</li>
<li>Ces systèmes construisent rarement une compréhension approfondie de la logique métier. Leurs résultats restent fortement alignés sur des patterns génériques de type OWASP et ne challengent pas les risques métier réels ou les scénarios d’attaque de manière suffisamment contextuelle.</li>
</ul>
<p style="text-align: justify;">On notera que la majorité de ces reproches peuvent également être applicables à des pentesters humains, ces derniers restant toutefois davantage responsabilisable.</p>
<p style="text-align: justify;">Le problème de passage à l’échelle reste central. Les CTF ne sont que partiellement représentatifs des applications réelles. Un CTF aura généralement tendance à guider le participant vers un chemin d’attaque étroit et délibéré, alors que même une application métier modeste exposera une surface bien plus large. Aujourd’hui, garantir une couverture exhaustive pour des applications réelles reste complexe.</p>
<p> </p>
<h2>Verdict et limites actuelles</h2>
<h3>Verdict</h3>
<p style="text-align: justify;">Si l’on considère des solutions reposant entièrement sur un LLM pour leur arbre de décision, la conclusion est claire à ce stade : seuls les modèles de pointe des principaux fournisseurs IA produisent systématiquement des résultats à la fois pertinents et raisonnablement vérifiables.</p>
<p style="text-align: justify;">Nous pouvons considérer quatre options de déploiement pratiques :</p>
<ul>
<li style="text-align: justify;">Les <strong>services LLM SaaS</strong>, qui offrent actuellement la meilleure qualité via des LLM avancés (&gt;1T paramètres), sur une base de paiement à l’utilisation.</li>
<li style="text-align: justify;">Les <strong>déploiements en grands datacenters privés</strong>, capables de faire tourner des modèles puissants (500b) et pouvant devenir de plus en plus pertinents pour le pentest, mais restant encore sensiblement en deçà des meilleurs systèmes frontier commerciaux.</li>
<li style="text-align: justify;">Les <strong>déploiements en datacenters privés plus modestes</strong>, capables de faire tourner des modèles compétents (300b), mais clairement insuffisants pour orchestrer efficacement des pentests autonomes.</li>
<li style="text-align: justify;">Les <strong>postes de travail dédiés</strong>, qui, même avec des spécifications très élevées, peinent rapidement au-delà de 100b de paramètres et restent largement insuffisants aujourd’hui.</li>
</ul>
<figure id="attachment_29673" aria-describedby="caption-attachment-29673" style="width: 1698px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-29673" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/7-Distribution-illustrative-des-modeles-locaux-open-source-par-nombre-de-parametres-et-taille-totale.png" alt="Distribution illustrative des modèles locaux open source par nombre de paramètres et taille totale" width="1698" height="899" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/7-Distribution-illustrative-des-modeles-locaux-open-source-par-nombre-de-parametres-et-taille-totale.png 1698w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/7-Distribution-illustrative-des-modeles-locaux-open-source-par-nombre-de-parametres-et-taille-totale-361x191.png 361w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/7-Distribution-illustrative-des-modeles-locaux-open-source-par-nombre-de-parametres-et-taille-totale-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/7-Distribution-illustrative-des-modeles-locaux-open-source-par-nombre-de-parametres-et-taille-totale-768x407.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/7-Distribution-illustrative-des-modeles-locaux-open-source-par-nombre-de-parametres-et-taille-totale-1536x813.png 1536w" sizes="auto, (max-width: 1698px) 100vw, 1698px" /><figcaption id="caption-attachment-29673" class="wp-caption-text"><em>Distribution illustrative des modèles locaux open source par nombre de paramètres et taille totale</em></figcaption></figure>
<p style="text-align: justify;">La dépendance aux fournisseurs SaaS soulève des questions inévitables de souveraineté et de confidentialité. Les tests d’intrusion consolident souvent des informations techniques très sensibles sur les faiblesses cyber d’une organisation. L’externalisation des prompts, traces, conclusions ou hypothèses d’attaque nécessite ainsi une gouvernance rigoureuse. En complément, l&rsquo;anonymisation des données en amont du LLM n&rsquo;est pas une solution fiable : elle dégrade les performances de l&rsquo;agent tout en laissant fuiter des métadonnées potentiellement exploitables vers le fournisseur SaaS.</p>
<p style="text-align: justify;">Dans leur état actuel, même équipés des LLMs les plus capables, ces systèmes présentent également des limitations structurelles qui affectent directement la fiabilité :</p>
<ul>
<li style="text-align: justify;">Des phénomènes de “tunnel”, avec une fixation trop prolongée de l’agent sur un unique chemin d’attaque non pertinent.</li>
<li style="text-align: justify;">Une tendance à lancer des activités de bruteforce chronophages et consommatrice sans appréciation de la complexité ou du coût computationnel.</li>
<li style="text-align: justify;">La problèmatique des hallucinations, sur laquelle d’immenses progrès ont été réalisés, mais qui peut encore affecter les LLM, y compris les plus complexes.</li>
</ul>
<figure id="attachment_29675" aria-describedby="caption-attachment-29675" style="width: 1511px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-29675" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/8-Facilite-a-halluciner-ou-mal-interpreter-les-resultats-ici-avec-kimi-k2-1T.png" alt="Facilité à halluciner ou mal interpréter les résultats, ici avec kimi-k2 (1T)" width="1511" height="334" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/8-Facilite-a-halluciner-ou-mal-interpreter-les-resultats-ici-avec-kimi-k2-1T.png 1511w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/8-Facilite-a-halluciner-ou-mal-interpreter-les-resultats-ici-avec-kimi-k2-1T-437x97.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/8-Facilite-a-halluciner-ou-mal-interpreter-les-resultats-ici-avec-kimi-k2-1T-71x16.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/8-Facilite-a-halluciner-ou-mal-interpreter-les-resultats-ici-avec-kimi-k2-1T-768x170.png 768w" sizes="auto, (max-width: 1511px) 100vw, 1511px" /><figcaption id="caption-attachment-29675" class="wp-caption-text"><em>Facilité à halluciner ou mal interpréter les résultats, ici avec kimi-k2 (1T)</em></figcaption></figure>
<ul>
<li style="text-align: justify;">La nature non déterministe des LLM, rendant certaines exécutions bien moins efficaces et pertinentes que d’autres, confirmant l’utilité de ces agents dans une approche continue ou régulière.</li>
<li style="text-align: justify;">Des difficultés de passage à l’échelle liées aux contraintes de fenêtre de contexte : ces outils permettent un passage à l’échelle dans le sens où l’on peut lancer autant de sessions parallèles que de cibles. Cependant, le passage à l’échelle est plus complexe lorsqu’une session unique est lancée contre une unique application hautement complexe. Il devient alors beaucoup plus difficile de maintenir une couverture exhaustive et une continuité de mémoire sur des applications larges et riches en contenu. D’importantes améliorations sont possibles sur ce volet, une gestion efficace de la mémoire à long terme permettant des exécutions plus cohérentes pour les grandes applications et améliorant la confiance dans le couverture.</li>
<li style="text-align: justify;">Une verbosité élevée et une furtivité limitée, qui rendent ces systèmes peu adaptés dans leur configuration par défaut aux opérations Red Team, qui nécessitent davantage de discrétion. Cela peut toutefois être amélioré par une configuration dédiée, sans toutefois promettre d’égaler les capacités d’un Red Teamer humain.</li>
</ul>
<p style="text-align: justify;">De manière plus générale, un processus autonome piloté en SaaS et ayant la capacité d’exécuter des commandes à distance dans vos SI pose d’emblée la question de la responsabilité :</p>
<ul style="text-align: justify;">
<li>Classer les modules comme dangereux ou sûrs peut ne pas suffire, par exemple avec des outils couteaux-suisses, capables d’une reconnaissance anodine et d’exploits agressifs et potentiellement dangereux. Le niveau de menace de chaque commande devrait être évalué dynamiquement, en tenant compte du contexte et des tests précédents.</li>
<li>S’appuyer sur une approbation humaine peut également avoir ses limites : au même titre que pour les solutions de vibe coding, une « fatigue » humaine peut rapidement s’installer, où les utilisateurs deviennent trop confiants et cessent de remettre en question les conclusions de l’agent.</li>
</ul>
<p style="text-align: justify;">Et bien entendu, toute vulnérabilité au niveau du LLM, telle qu’une susceptibilité au <em>prompt injection</em> ou à l’empoisonnement, pourrait être exploitée pour détourner l’agent de pentest automatisé. En substance, ces outils autonomes, s’ils sont déployés en interne, doivent être considérés comme des actifs critiques, très interessants pour de potentiels attaquants.</p>
<p> </p>
<h3>Où l’architecture peut s’améliorer</h3>
<p style="text-align: justify;">Au-delà de la qualité du modèle lui-même, une part substantielle des améliorations possibles réside dans la conception globale du système. Plusieurs directions architecturales apparaissent prometteuses :</p>
<ul style="text-align: justify;">
<li>Multiplier les sessions et les passes de validation, en utilisant une exploration continue, des phases de zoom ciblées et des boucles de confirmation explicites. La fiabilité s’en voit améliorée, au prix d’une augmentation du coût, de la durée, et de la complexité de la solution.</li>
<li>Introduire des instances de validation dédiées pour confirmer l’exploitabilité dans un environnement contrôlé avant que les conclusions ne soient intégrées dans un rapport.</li>
<li>Utiliser des arbres de décision plus légers ou des modules spécialisés en amont de l’exploitation, en réservant les modèles haut de gamme uniquement pour les parties du workflow qui nécessitent vraiment adaptabilité et raisonnement.</li>
<li>Faire précéder la phase autonome d’une phase préliminaire de tests scriptés, puis alimenter l’agent avec les sorties structurées. C’est approche apparait bien plus rentable que de dépenser du contexte et des tokens LLM sur des tâches déjà faciles à automatiser sans IA. Le principe de base doit être simple : ne pas utiliser l’IA là où l’automatisation conventionnelle fonctionne déjà bien. Déléguer au LLM uniquement les taches véritablement ambiguës, et éviter de surcharger le modèle avec un long historique de commandes.</li>
</ul>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">En pratique, ce dernier point est déjà la direction prise par de nombreuses plateformes éditeurs. Elles ne s’appuient pas entièrement sur l’IA agentique ; elles combinent plutôt une logique déterministe avec une exploitation agentique.</p>
<figure id="attachment_29677" aria-describedby="caption-attachment-29677" style="width: 1842px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="size-full wp-image-29677" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/9-Architecture-multi-etapes-potentielle-concue-pour-ameliorer-la-fiabilite-des-resultats-et-reduire-la-charge-inutile-sur-le-modele.png" alt="Architecture multi-étapes potentielle conçue pour améliorer la fiabilité des résultats et réduire la charge inutile sur le modèle" width="1842" height="764" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/9-Architecture-multi-etapes-potentielle-concue-pour-ameliorer-la-fiabilite-des-resultats-et-reduire-la-charge-inutile-sur-le-modele.png 1842w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/9-Architecture-multi-etapes-potentielle-concue-pour-ameliorer-la-fiabilite-des-resultats-et-reduire-la-charge-inutile-sur-le-modele-437x181.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/9-Architecture-multi-etapes-potentielle-concue-pour-ameliorer-la-fiabilite-des-resultats-et-reduire-la-charge-inutile-sur-le-modele-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/9-Architecture-multi-etapes-potentielle-concue-pour-ameliorer-la-fiabilite-des-resultats-et-reduire-la-charge-inutile-sur-le-modele-768x319.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2026/04/9-Architecture-multi-etapes-potentielle-concue-pour-ameliorer-la-fiabilite-des-resultats-et-reduire-la-charge-inutile-sur-le-modele-1536x637.png 1536w" sizes="auto, (max-width: 1842px) 100vw, 1842px" /><figcaption id="caption-attachment-29677" class="wp-caption-text"><em>Architecture multi-étapes potentielle conçue pour améliorer la fiabilité des résultats et réduire la charge inutile sur le modèle</em></figcaption></figure>
<p style="text-align: justify;">Enfin, une réflexion intéressante : ces solutions automatisées pouvant être utilisées par de vrais attaquants, nous pourrions voir émerger des mécanismes “anti-IA” intégrés dans les applications, tels que des “labyrinthes de liens” et des <em>honeypots</em> draineurs de tokens conçus spécifiquement pour induire en erreur ou épuiser les systèmes de test automatisés.</p>
<p style="text-align: justify;">Avec des modèles suffisamment puissants, les systèmes agentiques peuvent déjà exceller dans des environnements contraints comme les CTF. Leurs performances dans les évaluations d’applications réelles sont plus mitigées : souvent utiles, parfois impressionnantes, mais encore trop incohérentes pour être utilisées sans supervision humaine.</p>
<p style="text-align: justify;">La voie la plus pragmatique aujourd’hui est donc un modèle opérationnel hybride : un système agentique réalisant la majorité des tests et proposant des directions d’investigation, accompagné de pentesters humains arbitrant, validant et prenant le relai dans les cas les plus complexes. On a ainsi une évaluation sécurité bien moins longues, tout en garantissant un degré de couverture et de pertinence des résultats.</p>
<p style="text-align: justify;">L’IA agentique ne s’annonce donc pas comme remplacement à l’humain. À son niveau de maturité actuel, elle est mieux appréhendée comme un multiplicateur de force, capable d&rsquo;accélérer l&rsquo;exploration et le tri, mais qui dépend encore de la supervision d&rsquo;experts pour transformer une activité autonome brute en résultats de sécurité fiables. Dans tous les cas, ces systèmes doivent être considérés comme hautement sensibles en raison de leur nature autonome, et les contraintes actuelles liées aux modèles hébergés en SaaS doivent être prises en compte, en termes de confidentialité des données et de souveraineté numérique.</p>
<p style="text-align: justify;">Sans être encore pleinement matures, ces solutions commencent à laisser une empreinte dans le paysage de la cybersécurité, et modifieront très probablement la trajectoire du marché du pentest, vers un écosystème davantage centré autour d’outils et de ressources de calcul, tout en conservant une approche hybride. Nous pourrions même voir des audits suivre un modèle “Bring Your Own Compute”, où les audités fournissent le LLM, et les auditeurs fournissent les outils et « skills ».</p>
<p style="text-align: justify;"> </p>
<p> </p>
<p> </p>






<p>Cet article <a href="https://www.riskinsight-wavestone.com/2026/04/ia-agentique-pour-la-securite-offensive/">IA Agentique pour la Sécurité Offensive</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2026/04/ia-agentique-pour-la-securite-offensive/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
