<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Nesrine LOUSSAIEF, Auteur</title>
	<atom:link href="https://www.riskinsight-wavestone.com/author/nesrine-loussaief/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/author/nesrine-loussaief/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Wed, 26 Jun 2024 10:20:02 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Nesrine LOUSSAIEF, Auteur</title>
	<link>https://www.riskinsight-wavestone.com/author/nesrine-loussaief/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>La cybersécurité au cœur de l’AI Act : éléments clés pour la mise en conformité</title>
		<link>https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/#respond</comments>
		
		<dc:creator><![CDATA[Nesrine LOUSSAIEF]]></dc:creator>
		<pubDate>Wed, 26 Jun 2024 10:18:52 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Digital Compliance]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI ACT]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Artificial intelligence act]]></category>
		<category><![CDATA[SIA]]></category>
		<category><![CDATA[Union européenne]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=23342</guid>

					<description><![CDATA[<p>Nous y sommes, le 21 mai 2024, la réglementation européenne sur l’intelligence artificielle voit le jour après 4 années de négociations. Depuis février 2020, l’Union Européenne (UE) s’intéresse aux Systèmes d’intelligence artificielle (SIA) avec la publication du premier livre blanc...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/">La cybersécurité au cœur de l’AI Act : éléments clés pour la mise en conformité</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Nous y sommes, le 21 mai 2024, la réglementation européenne sur l’intelligence artificielle voit le jour après 4 années de négociations. Depuis février 2020, l’Union Européenne (UE) s’intéresse aux Systèmes d’intelligence artificielle (SIA) avec la publication du premier livre blanc sur l’IA par la Commission européenne. Quatre ans plus tard, le 13 mars 2024, le Parlement Européen approuve <em>le règlement sur l’intelligence artificielle</em> (AI Act) à une large majorité de 523 voix sur 618 et l’Europe devient le premier continent à fixer des règles claires pour l’utilisation de l’IA.</p>
<p style="text-align: justify;">Pour arriver à ce vote favorable, le Parlement Européen a dû faire face à de lourdes oppositions des lobbyistes, notamment certaines entreprises d’IA qui pouvaient jusqu’à présent bénéficier d’un très large panel de données d’entraînement, sans se soucier des droits d’auteurs. Certains gouvernements ont aussi tenté de faire barrage. C’est le cas de l’Etat Français, qui craignait que la réglementation puisse freiner le développement de la French Tech.</p>
<p style="text-align: justify;">Le 9 décembre 2023, le Parlement et le Conseil tombent d’accord sur un texte, après trois jours de « pourparlers-marathon » et des mois de négociations. Un nombre quasi record de 771 amendements ont été intégrés au texte de loi, c’est plus que pour le RGPD, et c’est dire les difficultés rencontrées pour l’adoption de ce texte.</p>
<p style="text-align: justify;">Le <em>règlement sur l’intelligence artificielle</em> (AI Act) est approuvé le 13 mars 2024 par le Parlement Européen, puis le 21 mai 2024 par le Conseil Européen. Il s’agit de la dernière étape du processus décisionnel <a href="https://siecledigital.fr/tag/europe/">européen</a>, ouvrant la voie à la mise en application du texte. S’agissant d’un règlement, il est directement applicable à l’ensemble des pays membres de l’UE. Les prochaines échéances sont données dans la figure 6, à la fin de cet article.</p>
<p style="text-align: justify;"><img fetchpriority="high" decoding="async" class="size-full wp-image-23347 alignnone" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR.png" alt="" width="3659" height="1954" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR.png 3659w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-358x191.png 358w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-768x410.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-1536x820.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-2048x1094.png 2048w" sizes="(max-width: 3659px) 100vw, 3659px" /></p>
<p style="text-align: center;"><em>Figure 1 : Chronologie de l’adoption de l’AI Act</em></p>
<h3 style="text-align: justify;"> </h3>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Quels sont les acteurs concernés et les autorités de surveillance ?</strong></span></h2>
<p style="text-align: justify;">L’AI Act concerne essentiellement cinq grands types d’acteurs : les fournisseurs, les intégrateurs, les importateurs, les distributeurs et les organisations utilisatrices d’IA Naturellement, les fournisseurs, les distributeurs et les organisations utilisatrices sont les plus visés par la réglementation.</p>
<p style="text-align: justify;">Chaque état de l’UE est responsable de « l’application et de la mise en œuvre du règlement » en son sein et doit désigner une autorité de contrôle nationale. En France, la CNIL pourrait être un bon candidat<sup>1</sup> et a créé, en janvier 2023, un « Service de l’intelligence artificielle ».</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Une nouvelle hiérarchie des risques qui amène des exigences de cybersécurité</strong></span></h2>
<p style="text-align: justify;">L’AI Act définit un SIA comme un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui, à partir de données d’entrée, déduit des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.</p>
<p style="text-align: justify;">Les SIA sont classés sur quatre niveaux en fonction du risque qu’ils représentent : les risques inacceptables, les risques hauts, les risques limités et les risques faibles.</p>
<p><img decoding="async" class="aligncenter size-full wp-image-23349" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR.png" alt="" width="3882" height="948" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR.png 3882w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-437x107.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-71x17.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-768x188.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-1536x375.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-2048x500.png 2048w" sizes="(max-width: 3882px) 100vw, 3882px" /></p>
<p style="text-align: center;"><em>Figure 2 : Classification des risques, exigences et sanctions</em></p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;">
<li><span style="color: #53548a;"><strong>Les SIA à risque inacceptable</strong></span> sont ceux engendrant des risques qui contreviennent aux valeurs de l’UE et qui portent atteinte aux droits fondamentaux.<span style="color: #53548a;"> <strong>Ces SIA sont tout simplement interdits</strong></span>, ils ne peuvent ni être commercialisés au sein de l’UE, ni être exportés. Les différents risques jugés inacceptables et par conséquent induisant qu’un SIA soit interdit sont cités dans la figure ci-après. La commercialisation de ce type de SIA est passible d’une amende de 7% du chiffre d’affaires annuel de l’entreprise ou de 35 millions €.</li>
</ol>
<p><img decoding="async" class="wp-image-23351 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR.png" alt="" width="500" height="329" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR.png 2121w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-290x191.png 290w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-59x39.png 59w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-768x505.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-1536x1011.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-2048x1348.png 2048w" sizes="(max-width: 500px) 100vw, 500px" /></p>
<p style="text-align: center;"><em style="font-size: revert; color: initial;">Figure 3 : Les cas d’usage de risques inacceptables</em></p>
<ol style="text-align: justify;" start="2">
<li><span style="color: #53548a;"><strong>Les SIA à haut risque</strong> </span>présentent un risque <span style="color: #53548a;"><strong>d’impact négatif</strong></span> sur la sécurité ou les droits fondamentaux. On y retrouve par exemple les systèmes d’identification biométrique ou de gestion de la main-d’œuvre. Ils sont la cible de la quasi-totalité des exigences mentionnées dans le texte. Il est demandé, pour ces SIA, une déclaration de conformité et leur enregistrement dans la base de données de l’UE. De plus, ils sont soumis à des <span style="color: #53548a;"><strong>exigences en cybersécurité</strong></span> qui sont présentées dans la figure 4. Le non-respect des critères donnés est sanctionné à hauteur maximum de 3% du chiffre d’affaires annuel de l’entreprise ou 15 millions € d’amende.</li>
<li><span style="color: #53548a;"><strong>Les SIA à risque limité</strong></span> sont les systèmes d’IA interagissant avec les personnes physiques et n’étant ni à risque inacceptable, ni à haut risque. On y retrouve par exemple des deepfakes à vocation artistique ou pédagogique. Dans ce cas, les <span style="color: #53548a;"><strong>utilisateurs doivent être informés</strong> </span>sur le fait que le contenu a été généré par l’IA. Un manque de transparence peut être sanctionné à 7,5M€ ou 1% du chiffre d’affaires.</li>
<li><span style="color: #53548a;"><strong>Les SIA à risque faible</strong></span> sont ceux qui n’entrent pas dans les catégories citées ci-dessus. Il s’agit par exemple des IA de jeux vidéo ou des filtres anti-spams. <span style="color: #53548a;"><strong>Aucune sanction n’est prévue pour ces systèmes</strong></span>, ils sont soumis à l’application volontaire de codes de conduite et représentent la plus grande partie des SAI actuellement utilisés en UE.</li>
</ol>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Des exigences en cybersécurité adressées aux SIA à haut risque</strong></span></h2>
<p style="text-align: justify;">Bien que le règlement sur l’AI Act ne soit pas uniquement axé sur la cybersécurité, ce dernier fixe un certain nombre d’exigences dans ce domaine :</p>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23354" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR.png" alt="" width="1934" height="1895" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR.png 1934w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-195x191.png 195w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-40x39.png 40w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-768x753.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-1536x1505.png 1536w" sizes="auto, (max-width: 1934px) 100vw, 1934px" /></p>
<p style="text-align: center;"><em>Figure 4 : Les exigences de l’AI Act en termes de cybersécurité</em></p>
<p style="text-align: justify;">Nous avons identifié <span style="color: #53548a;"><strong>sept grandes catégories</strong></span> d’exigences cybersécurité :</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Gestion des risques</span> :</strong> Le texte impose, pour les SIA à haut risque, un système de gestion des risques qui se déroule tout au long du cycle de vie du SIA. Il doit prévoir, entre autres, l’identification et l’analyse des risques actuels, à venir et la maîtrise des risques résiduels.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Security by design</span> :</strong> L’AI Act demande aux SIA à haut risque de tenir compte du niveau de risque. Les risques doivent être réduits « autant que possible grâce à une conception et un développement approprié ». Le règlement évoque aussi la maîtrise des boucles de rétroaction dans le cas d’un SIA qui continuerait son apprentissage après la mise sur le marché.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Documentation</span> :</strong> Chaque SIA doit être accompagné d’une documentation technique qui prouve que les exigences indiquées dans l’annexe 4 du texte de loi sont bien respectées. En plus de cette documentation technique à l’adresse des autorités nationales, l’AI Act exige la rédaction d’un mode d’emploi compréhensible par les utilisateurs. Il contient par exemple, les mesures mises en place pour la maintenance du système et la collecte des logs.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Gouvernance des données</span> :</strong> L’AI Act réglemente d’une part le choix des données d’entraînement<sup>2</sup> et d’autre part, la sécurité des données de l’utilisateur. Les données d’entrainement doivent être examinées de manière à ce qu’elles ne contiennent aucun biais<sup>3</sup> ou insuffisance susceptible d’entraîner des discriminations ou d&rsquo;affecter la santé et la sécurité des personnes. Ces données doivent être représentatives de l’environnement dans lequel le SIA sera utilisé. Pour la protection des données à caractère personnel, la résolution des problèmes liés à des biais (présentés plus tôt), dans la mesure où il ne peut être traité autrement, fait office de seule dérogation pour l’accès aux données sensibles (origines, convictions politiques, données biométriques ou de santé…). Cet accès est soumis à plusieurs obligations de confidentialité et à la suppression de ces données une fois le biais corrigé.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Tenue de registres</span> :</strong> L’enregistrement automatique de journaux (logs) fait partie des exigences cyber de l’AI Act. Ces derniers doivent, tout au long de leur cycle de vie, relever les éléments pertinents pour l&rsquo;identification de situations à risque et pour permettre la facilitation de la surveillance postérieure à la mise sur le marché.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Résilience </span>:</strong> L’AI Act impose aux SIA à haut risque d’être résistants aux tentatives de personnes extérieures visant à modifier leur utilisation ou leurs performances. Le texte appuie notamment sur le risque « d’empoisonnement » des données<sup>4</sup>. De plus, des solutions techniques redondantes, telles que des plans de sauvegarde ou des mesures de sécurité après défaillance, doivent être intégrées au programme afin de garantir la robustesse des systèmes d’IA à haut risque.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Surveillance humaine</span> : </strong>L’AI Act introduit une obligation de surveillance des SIA par l’être humain. Cela passe d’abord par une conception adaptée à la surveillance et au contrôle humain. Ensuite, il est imposé que la conception du modèle assure qu’aucune action ou décision ne soit prise par le responsable du déploiement sans l’approbation de deux personnes physiques compétentes, à quelques exceptions près.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Le nouveau cas des IA à usage général : des exigences particulières </strong></span></h2>
<p style="text-align: justify;">Depuis la proposition de loi d’avril 2021, les négociations ont mené à l’apparition d’un nouveau terme dans le règlement : celui de GenIA ou « modèle d’IA à usage général ». Ce dernier est défini dans le texte comme un modèle d&rsquo;IA qui présente une généralité significative et qui est capable d&rsquo;exécuter de manière compétente un large éventail de tâches distinctes. Ces modèles forment une catégorie de SIA bien distincte et doivent répondre à des exigences particulières. Le nouveau chapitre V du règlement leur est dédié. On y retrouve principalement des obligations de transparence vis-à-vis de l’UE, des fournisseurs et des utilisateurs ainsi que le respect des droits d’auteurs. Enfin, les fournisseurs doivent désigner un mandataire responsable du respect de ces exigences.  Mais la nouvelle version de l’AI Act a également introduit une nouvelle notion : celle de GenIA à « risque systémique », qui sont les plus réglementés.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Qu’est-ce qu’un GenIA à risque systémique ?</strong></span></h2>
<p style="text-align: justify;">L’AI Act définit un « risque systémique » comme « un risque à fort impact des modèles d&rsquo;IA à usage général, ayant une incidence significative sur le marché de l&rsquo;Union Européenne en raison de leur portée ou d&rsquo;effets négatifs sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle. » Concrètement, un GenIA est considéré comme présentant un risque systémique s’il dispose d’une capacité de fort impact selon les critères suivants :</p>
<ol style="text-align: justify;">
<li>Une quantité de calcul utilisé pour son entraînement supérieur à 10^25 FLOPS<sup>5</sup></li>
<li>Une décision de la Commission sur la base de divers critères définis en Annexe XIII tels que la complexité des paramètres du modèle ou sa portée parmi les entreprises et les consommateurs.</li>
</ol>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Quelles sont les mesures à mettre en œuvre ?</strong></span></h2>
<p style="text-align: justify;">Si le SIA rentre dans ces catégories, il devra se soumettre à de nombreuses exigences, notamment en matière de cybersécurité.  Par exemple, l’article 55 1a) demande aux fournisseurs de ces SIA de mettre en place des essais contradictoires des modèles en vue d&rsquo;identifier et d&rsquo;atténuer le risque systémique. De plus, les GenIA à risque systémique doivent présenter, au même titre que les SIA à haut risque, un niveau approprié de protection en cybersécurité et une protection de l’infrastructure physique du modèle. Enfin, à l’image du RGPD avec les violations de données personnelles, l’AI Act exige, en cas d’incident grave, de contacter le Bureau de l&rsquo;IA<sup>6</sup> ainsi que l’autorité nationale compétente. Les mesures correctives pour remédier à l’incident doivent aussi être communiquées.</p>
<p style="text-align: justify;">Le schéma suivant résume les différentes exigences en fonction du modèle d’IA d’usage général :</p>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23356" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR.png" alt="" width="3314" height="2180" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR.png 3314w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-290x191.png 290w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-59x39.png 59w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-768x505.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-1536x1010.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-2048x1347.png 2048w" sizes="auto, (max-width: 3314px) 100vw, 3314px" /></p>
<p style="text-align: center;"><em>Figure 5 : Les exigences des différents modèles GenIA</em></p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><strong><span style="color: #50067a;">Est-il possible d’alléger certaines exigences ?</span> </strong></h2>
<p style="text-align: justify;">Dans le cas d’un modèle d’IA à usage général ne présentant pas de risque systémique, il est possible de réduire considérablement les obligations du règlement en le rendant libre de consultation, de modification et de distribution (Open Source<sup>7</sup>). Dans ce cas, le fournisseur est tenu de respecter les droits d’auteurs et de mettre à disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d&rsquo;IA.</p>
<p style="text-align: justify;">En revanche, un GenIA à risque systémique devra forcément respecter les exigences énoncées plus haut. Cependant il est possible de demander à réévaluer son modèle d’IA en prouvant que ce dernier ne présente plus de risque systémique afin de se défaire des exigences supplémentaires. Cette réévaluation est possible deux fois par an et est validée par la Commission européenne sur des critères objectifs (Annexe XIII).</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Comment se préparer à la conformité à l’AI Act ?</strong></span></h2>
<p style="text-align: justify;">Pour bien se préparer, il convient de respecter <span style="color: #53548a;"><strong>l’approche par les risques qui est imposée par le texte</strong></span>. La première étape consiste à faire l’<span style="color: #53548a;"><strong>inventaire de ses cas d’usage</strong></span>, autrement dit, identifier tous les SIA que l’organisation développe ou emploie. Dans un second temps, il s’agit de<span style="color: #53548a;"> <strong>classer ses SIA par niveau de risque</strong></span> (par exemple à travers une heat map). Les mesures applicables seront alors identifiées en fonction du niveau de risque des SIA. L’AI Act impose également la mise en œuvre d’un<span style="color: #53548a;"> <strong>processus d’intégration de la sécurité dans les projets</strong><strong> d’IA</strong> </span>qui permet, comme pour tout projet, d’évaluer les risques du projet par rapport à l’organisation et d’élaborer un plan de remédiation de ces risques qui soit pertinent.</p>
<p style="text-align: justify;">Pour initier la mise en conformité aux mesures applicables, il convient de démarrer par la mise à jour de la documentation et des outils existants, en particulier :</p>
<ul style="text-align: justify;">
<li><span style="color: #53548a;"><strong>Politiques de sécurité</strong> </span>pour définir des exigences propres à la sécurité de l’IA ;</li>
<li><span style="color: #53548a;"><strong>Questionnaire d’évaluation</strong> </span>de la sensibilité des projets ciblant les questions pertinentes pour les projets d’IA ;</li>
<li>Librairie de <span style="color: #53548a;"><strong>scénarios de risque</strong> </span>avec les attaques spécifiques à l’IA ;</li>
<li>Librairie de <span style="color: #53548a;"><strong>mesures de sécurité à insérer dans les projets d’IA</strong>.</span></li>
</ul>
<p style="text-align: justify;"><strong> </strong></p>
<h2 style="text-align: justify;"><strong><span style="color: #50067a;">Quelles sont les prochaines étapes ?</span> </strong></h2>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23359" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR.png" alt="" width="2000" height="806" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR.png 2000w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-437x176.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-768x310.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-1536x619.png 1536w" sizes="auto, (max-width: 2000px) 100vw, 2000px" /></p>
<p style="text-align: center;"><em>Figure 6 : Chronologie de la mise en application de l’AI Act</em></p>
<p> </p>
<p>&#8212;</p>
<p style="text-align: justify;"><sup>1 </sup>La CNIL et ses équivalents européens pourraient mettre à profit leur expérience afin contribuer à une gouvernance plus harmonisée (entre les États membres et entre les textes eux-mêmes).</p>
<p style="text-align: justify;"><sup>2</sup> Données d’entrainements : Large ensemble de données d’exemples utilisées pour apprendre à l&rsquo;IA à faire des prédictions ou prendre des décisions.</p>
<p style="text-align: justify;"><sup>3 </sup>Biais : Un biais algorithmique est le fait que le résultat d&rsquo;un algorithme ne soit pas neutre, loyal ou équitable que ce soit de manière inconsciente ou délibérée.</p>
<p style="text-align: justify;"><sup>4</sup> Empoisonnement des données : Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’<a href="https://www.cnil.fr/definition/entrainement-ou-apprentissage">entraînement</a> (ou d’apprentissage).</p>
<p style="text-align: justify;"><sup>5</sup> FLOPS : Unité de mesure de la puissance d&rsquo;un ordinateur correspondant au nombre d&rsquo;opérations en virgule flottante qu&rsquo;il effectue par seconde, par exemple, GPT-4 a été entrainé avec une puissance de calcul de l’ordre de 10^28 FLOPs contre 10^22 pour GPT-1.</p>
<p style="text-align: justify;"><sup>6</sup> Bureau de L’IA : Organisme européen en charge de la mise en œuvre du règlement. A ce titre, il se voit confier de nombreuses tâches comme le développement d’outils ou de méthodologies ou encore la coopération avec les différents acteurs impliqués par ce règlement.</p>
<p style="text-align: justify;"><sup>7</sup> Open Source : Sont considérés en licence libre et ouverte (Open Source), les modèles d’IA qui permettent leur libre consultation, modification et distribution. Leurs paramètres et informations sur l’utilisation du modèle doivent être rendus publics.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/">La cybersécurité au cœur de l’AI Act : éléments clés pour la mise en conformité</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
