<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Union européenne - RiskInsight</title>
	<atom:link href="https://www.riskinsight-wavestone.com/tag/union-europeenne/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.riskinsight-wavestone.com/tag/union-europeenne/</link>
	<description>Le blog cybersécurité des consultants Wavestone</description>
	<lastBuildDate>Wed, 26 Jun 2024 10:20:02 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.riskinsight-wavestone.com/wp-content/uploads/2024/02/Blogs-2024_RI-39x39.png</url>
	<title>Union européenne - RiskInsight</title>
	<link>https://www.riskinsight-wavestone.com/tag/union-europeenne/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>La cybersécurité au cœur de l’AI Act : éléments clés pour la mise en conformité</title>
		<link>https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/#respond</comments>
		
		<dc:creator><![CDATA[Perrine Viard]]></dc:creator>
		<pubDate>Wed, 26 Jun 2024 10:18:52 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Digital Compliance]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI ACT]]></category>
		<category><![CDATA[artificial intelligence]]></category>
		<category><![CDATA[Artificial intelligence act]]></category>
		<category><![CDATA[SIA]]></category>
		<category><![CDATA[Union européenne]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=23342</guid>

					<description><![CDATA[<p>Nous y sommes, le 21 mai 2024, la réglementation européenne sur l’intelligence artificielle voit le jour après 4 années de négociations. Depuis février 2020, l’Union Européenne (UE) s’intéresse aux Systèmes d’intelligence artificielle (SIA) avec la publication du premier livre blanc...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/">La cybersécurité au cœur de l’AI Act : éléments clés pour la mise en conformité</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Nous y sommes, le 21 mai 2024, la réglementation européenne sur l’intelligence artificielle voit le jour après 4 années de négociations. Depuis février 2020, l’Union Européenne (UE) s’intéresse aux Systèmes d’intelligence artificielle (SIA) avec la publication du premier livre blanc sur l’IA par la Commission européenne. Quatre ans plus tard, le 13 mars 2024, le Parlement Européen approuve <em>le règlement sur l’intelligence artificielle</em> (AI Act) à une large majorité de 523 voix sur 618 et l’Europe devient le premier continent à fixer des règles claires pour l’utilisation de l’IA.</p>
<p style="text-align: justify;">Pour arriver à ce vote favorable, le Parlement Européen a dû faire face à de lourdes oppositions des lobbyistes, notamment certaines entreprises d’IA qui pouvaient jusqu’à présent bénéficier d’un très large panel de données d’entraînement, sans se soucier des droits d’auteurs. Certains gouvernements ont aussi tenté de faire barrage. C’est le cas de l’Etat Français, qui craignait que la réglementation puisse freiner le développement de la French Tech.</p>
<p style="text-align: justify;">Le 9 décembre 2023, le Parlement et le Conseil tombent d’accord sur un texte, après trois jours de « pourparlers-marathon » et des mois de négociations. Un nombre quasi record de 771 amendements ont été intégrés au texte de loi, c’est plus que pour le RGPD, et c’est dire les difficultés rencontrées pour l’adoption de ce texte.</p>
<p style="text-align: justify;">Le <em>règlement sur l’intelligence artificielle</em> (AI Act) est approuvé le 13 mars 2024 par le Parlement Européen, puis le 21 mai 2024 par le Conseil Européen. Il s’agit de la dernière étape du processus décisionnel <a href="https://siecledigital.fr/tag/europe/">européen</a>, ouvrant la voie à la mise en application du texte. S’agissant d’un règlement, il est directement applicable à l’ensemble des pays membres de l’UE. Les prochaines échéances sont données dans la figure 6, à la fin de cet article.</p>
<p style="text-align: justify;"><img fetchpriority="high" decoding="async" class="size-full wp-image-23347 alignnone" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR.png" alt="" width="3659" height="1954" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR.png 3659w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-358x191.png 358w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-768x410.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-1536x820.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-1-FR-2048x1094.png 2048w" sizes="(max-width: 3659px) 100vw, 3659px" /></p>
<p style="text-align: center;"><em>Figure 1 : Chronologie de l’adoption de l’AI Act</em></p>
<h3 style="text-align: justify;"> </h3>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Quels sont les acteurs concernés et les autorités de surveillance ?</strong></span></h2>
<p style="text-align: justify;">L’AI Act concerne essentiellement cinq grands types d’acteurs : les fournisseurs, les intégrateurs, les importateurs, les distributeurs et les organisations utilisatrices d’IA Naturellement, les fournisseurs, les distributeurs et les organisations utilisatrices sont les plus visés par la réglementation.</p>
<p style="text-align: justify;">Chaque état de l’UE est responsable de « l’application et de la mise en œuvre du règlement » en son sein et doit désigner une autorité de contrôle nationale. En France, la CNIL pourrait être un bon candidat<sup>1</sup> et a créé, en janvier 2023, un « Service de l’intelligence artificielle ».</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Une nouvelle hiérarchie des risques qui amène des exigences de cybersécurité</strong></span></h2>
<p style="text-align: justify;">L’AI Act définit un SIA comme un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et qui, à partir de données d’entrée, déduit des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.</p>
<p style="text-align: justify;">Les SIA sont classés sur quatre niveaux en fonction du risque qu’ils représentent : les risques inacceptables, les risques hauts, les risques limités et les risques faibles.</p>
<p><img decoding="async" class="aligncenter size-full wp-image-23349" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR.png" alt="" width="3882" height="948" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR.png 3882w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-437x107.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-71x17.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-768x188.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-1536x375.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-2-FR-2048x500.png 2048w" sizes="(max-width: 3882px) 100vw, 3882px" /></p>
<p style="text-align: center;"><em>Figure 2 : Classification des risques, exigences et sanctions</em></p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;">
<li><span style="color: #53548a;"><strong>Les SIA à risque inacceptable</strong></span> sont ceux engendrant des risques qui contreviennent aux valeurs de l’UE et qui portent atteinte aux droits fondamentaux.<span style="color: #53548a;"> <strong>Ces SIA sont tout simplement interdits</strong></span>, ils ne peuvent ni être commercialisés au sein de l’UE, ni être exportés. Les différents risques jugés inacceptables et par conséquent induisant qu’un SIA soit interdit sont cités dans la figure ci-après. La commercialisation de ce type de SIA est passible d’une amende de 7% du chiffre d’affaires annuel de l’entreprise ou de 35 millions €.</li>
</ol>
<p><img decoding="async" class="wp-image-23351 aligncenter" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR.png" alt="" width="500" height="329" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR.png 2121w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-290x191.png 290w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-59x39.png 59w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-768x505.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-1536x1011.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-3-FR-2048x1348.png 2048w" sizes="(max-width: 500px) 100vw, 500px" /></p>
<p style="text-align: center;"><em style="font-size: revert; color: initial;">Figure 3 : Les cas d’usage de risques inacceptables</em></p>
<ol style="text-align: justify;" start="2">
<li><span style="color: #53548a;"><strong>Les SIA à haut risque</strong> </span>présentent un risque <span style="color: #53548a;"><strong>d’impact négatif</strong></span> sur la sécurité ou les droits fondamentaux. On y retrouve par exemple les systèmes d’identification biométrique ou de gestion de la main-d’œuvre. Ils sont la cible de la quasi-totalité des exigences mentionnées dans le texte. Il est demandé, pour ces SIA, une déclaration de conformité et leur enregistrement dans la base de données de l’UE. De plus, ils sont soumis à des <span style="color: #53548a;"><strong>exigences en cybersécurité</strong></span> qui sont présentées dans la figure 4. Le non-respect des critères donnés est sanctionné à hauteur maximum de 3% du chiffre d’affaires annuel de l’entreprise ou 15 millions € d’amende.</li>
<li><span style="color: #53548a;"><strong>Les SIA à risque limité</strong></span> sont les systèmes d’IA interagissant avec les personnes physiques et n’étant ni à risque inacceptable, ni à haut risque. On y retrouve par exemple des deepfakes à vocation artistique ou pédagogique. Dans ce cas, les <span style="color: #53548a;"><strong>utilisateurs doivent être informés</strong> </span>sur le fait que le contenu a été généré par l’IA. Un manque de transparence peut être sanctionné à 7,5M€ ou 1% du chiffre d’affaires.</li>
<li><span style="color: #53548a;"><strong>Les SIA à risque faible</strong></span> sont ceux qui n’entrent pas dans les catégories citées ci-dessus. Il s’agit par exemple des IA de jeux vidéo ou des filtres anti-spams. <span style="color: #53548a;"><strong>Aucune sanction n’est prévue pour ces systèmes</strong></span>, ils sont soumis à l’application volontaire de codes de conduite et représentent la plus grande partie des SAI actuellement utilisés en UE.</li>
</ol>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Des exigences en cybersécurité adressées aux SIA à haut risque</strong></span></h2>
<p style="text-align: justify;">Bien que le règlement sur l’AI Act ne soit pas uniquement axé sur la cybersécurité, ce dernier fixe un certain nombre d’exigences dans ce domaine :</p>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23354" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR.png" alt="" width="1934" height="1895" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR.png 1934w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-195x191.png 195w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-40x39.png 40w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-768x753.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-4-FR-1536x1505.png 1536w" sizes="auto, (max-width: 1934px) 100vw, 1934px" /></p>
<p style="text-align: center;"><em>Figure 4 : Les exigences de l’AI Act en termes de cybersécurité</em></p>
<p style="text-align: justify;">Nous avons identifié <span style="color: #53548a;"><strong>sept grandes catégories</strong></span> d’exigences cybersécurité :</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Gestion des risques</span> :</strong> Le texte impose, pour les SIA à haut risque, un système de gestion des risques qui se déroule tout au long du cycle de vie du SIA. Il doit prévoir, entre autres, l’identification et l’analyse des risques actuels, à venir et la maîtrise des risques résiduels.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Security by design</span> :</strong> L’AI Act demande aux SIA à haut risque de tenir compte du niveau de risque. Les risques doivent être réduits « autant que possible grâce à une conception et un développement approprié ». Le règlement évoque aussi la maîtrise des boucles de rétroaction dans le cas d’un SIA qui continuerait son apprentissage après la mise sur le marché.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Documentation</span> :</strong> Chaque SIA doit être accompagné d’une documentation technique qui prouve que les exigences indiquées dans l’annexe 4 du texte de loi sont bien respectées. En plus de cette documentation technique à l’adresse des autorités nationales, l’AI Act exige la rédaction d’un mode d’emploi compréhensible par les utilisateurs. Il contient par exemple, les mesures mises en place pour la maintenance du système et la collecte des logs.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Gouvernance des données</span> :</strong> L’AI Act réglemente d’une part le choix des données d’entraînement<sup>2</sup> et d’autre part, la sécurité des données de l’utilisateur. Les données d’entrainement doivent être examinées de manière à ce qu’elles ne contiennent aucun biais<sup>3</sup> ou insuffisance susceptible d’entraîner des discriminations ou d&rsquo;affecter la santé et la sécurité des personnes. Ces données doivent être représentatives de l’environnement dans lequel le SIA sera utilisé. Pour la protection des données à caractère personnel, la résolution des problèmes liés à des biais (présentés plus tôt), dans la mesure où il ne peut être traité autrement, fait office de seule dérogation pour l’accès aux données sensibles (origines, convictions politiques, données biométriques ou de santé…). Cet accès est soumis à plusieurs obligations de confidentialité et à la suppression de ces données une fois le biais corrigé.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Tenue de registres</span> :</strong> L’enregistrement automatique de journaux (logs) fait partie des exigences cyber de l’AI Act. Ces derniers doivent, tout au long de leur cycle de vie, relever les éléments pertinents pour l&rsquo;identification de situations à risque et pour permettre la facilitation de la surveillance postérieure à la mise sur le marché.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Résilience </span>:</strong> L’AI Act impose aux SIA à haut risque d’être résistants aux tentatives de personnes extérieures visant à modifier leur utilisation ou leurs performances. Le texte appuie notamment sur le risque « d’empoisonnement » des données<sup>4</sup>. De plus, des solutions techniques redondantes, telles que des plans de sauvegarde ou des mesures de sécurité après défaillance, doivent être intégrées au programme afin de garantir la robustesse des systèmes d’IA à haut risque.</p>
<p style="text-align: justify;"><strong><span style="color: #53548a;">Surveillance humaine</span> : </strong>L’AI Act introduit une obligation de surveillance des SIA par l’être humain. Cela passe d’abord par une conception adaptée à la surveillance et au contrôle humain. Ensuite, il est imposé que la conception du modèle assure qu’aucune action ou décision ne soit prise par le responsable du déploiement sans l’approbation de deux personnes physiques compétentes, à quelques exceptions près.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Le nouveau cas des IA à usage général : des exigences particulières </strong></span></h2>
<p style="text-align: justify;">Depuis la proposition de loi d’avril 2021, les négociations ont mené à l’apparition d’un nouveau terme dans le règlement : celui de GenIA ou « modèle d’IA à usage général ». Ce dernier est défini dans le texte comme un modèle d&rsquo;IA qui présente une généralité significative et qui est capable d&rsquo;exécuter de manière compétente un large éventail de tâches distinctes. Ces modèles forment une catégorie de SIA bien distincte et doivent répondre à des exigences particulières. Le nouveau chapitre V du règlement leur est dédié. On y retrouve principalement des obligations de transparence vis-à-vis de l’UE, des fournisseurs et des utilisateurs ainsi que le respect des droits d’auteurs. Enfin, les fournisseurs doivent désigner un mandataire responsable du respect de ces exigences.  Mais la nouvelle version de l’AI Act a également introduit une nouvelle notion : celle de GenIA à « risque systémique », qui sont les plus réglementés.</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Qu’est-ce qu’un GenIA à risque systémique ?</strong></span></h2>
<p style="text-align: justify;">L’AI Act définit un « risque systémique » comme « un risque à fort impact des modèles d&rsquo;IA à usage général, ayant une incidence significative sur le marché de l&rsquo;Union Européenne en raison de leur portée ou d&rsquo;effets négatifs sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle. » Concrètement, un GenIA est considéré comme présentant un risque systémique s’il dispose d’une capacité de fort impact selon les critères suivants :</p>
<ol style="text-align: justify;">
<li>Une quantité de calcul utilisé pour son entraînement supérieur à 10^25 FLOPS<sup>5</sup></li>
<li>Une décision de la Commission sur la base de divers critères définis en Annexe XIII tels que la complexité des paramètres du modèle ou sa portée parmi les entreprises et les consommateurs.</li>
</ol>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Quelles sont les mesures à mettre en œuvre ?</strong></span></h2>
<p style="text-align: justify;">Si le SIA rentre dans ces catégories, il devra se soumettre à de nombreuses exigences, notamment en matière de cybersécurité.  Par exemple, l’article 55 1a) demande aux fournisseurs de ces SIA de mettre en place des essais contradictoires des modèles en vue d&rsquo;identifier et d&rsquo;atténuer le risque systémique. De plus, les GenIA à risque systémique doivent présenter, au même titre que les SIA à haut risque, un niveau approprié de protection en cybersécurité et une protection de l’infrastructure physique du modèle. Enfin, à l’image du RGPD avec les violations de données personnelles, l’AI Act exige, en cas d’incident grave, de contacter le Bureau de l&rsquo;IA<sup>6</sup> ainsi que l’autorité nationale compétente. Les mesures correctives pour remédier à l’incident doivent aussi être communiquées.</p>
<p style="text-align: justify;">Le schéma suivant résume les différentes exigences en fonction du modèle d’IA d’usage général :</p>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23356" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR.png" alt="" width="3314" height="2180" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR.png 3314w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-290x191.png 290w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-59x39.png 59w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-768x505.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-1536x1010.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-5-FR-2048x1347.png 2048w" sizes="auto, (max-width: 3314px) 100vw, 3314px" /></p>
<p style="text-align: center;"><em>Figure 5 : Les exigences des différents modèles GenIA</em></p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><strong><span style="color: #50067a;">Est-il possible d’alléger certaines exigences ?</span> </strong></h2>
<p style="text-align: justify;">Dans le cas d’un modèle d’IA à usage général ne présentant pas de risque systémique, il est possible de réduire considérablement les obligations du règlement en le rendant libre de consultation, de modification et de distribution (Open Source<sup>7</sup>). Dans ce cas, le fournisseur est tenu de respecter les droits d’auteurs et de mettre à disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d&rsquo;IA.</p>
<p style="text-align: justify;">En revanche, un GenIA à risque systémique devra forcément respecter les exigences énoncées plus haut. Cependant il est possible de demander à réévaluer son modèle d’IA en prouvant que ce dernier ne présente plus de risque systémique afin de se défaire des exigences supplémentaires. Cette réévaluation est possible deux fois par an et est validée par la Commission européenne sur des critères objectifs (Annexe XIII).</p>
<p style="text-align: justify;"> </p>
<h2 style="text-align: justify;"><span style="color: #50067a;"><strong>Comment se préparer à la conformité à l’AI Act ?</strong></span></h2>
<p style="text-align: justify;">Pour bien se préparer, il convient de respecter <span style="color: #53548a;"><strong>l’approche par les risques qui est imposée par le texte</strong></span>. La première étape consiste à faire l’<span style="color: #53548a;"><strong>inventaire de ses cas d’usage</strong></span>, autrement dit, identifier tous les SIA que l’organisation développe ou emploie. Dans un second temps, il s’agit de<span style="color: #53548a;"> <strong>classer ses SIA par niveau de risque</strong></span> (par exemple à travers une heat map). Les mesures applicables seront alors identifiées en fonction du niveau de risque des SIA. L’AI Act impose également la mise en œuvre d’un<span style="color: #53548a;"> <strong>processus d’intégration de la sécurité dans les projets</strong><strong> d’IA</strong> </span>qui permet, comme pour tout projet, d’évaluer les risques du projet par rapport à l’organisation et d’élaborer un plan de remédiation de ces risques qui soit pertinent.</p>
<p style="text-align: justify;">Pour initier la mise en conformité aux mesures applicables, il convient de démarrer par la mise à jour de la documentation et des outils existants, en particulier :</p>
<ul style="text-align: justify;">
<li><span style="color: #53548a;"><strong>Politiques de sécurité</strong> </span>pour définir des exigences propres à la sécurité de l’IA ;</li>
<li><span style="color: #53548a;"><strong>Questionnaire d’évaluation</strong> </span>de la sensibilité des projets ciblant les questions pertinentes pour les projets d’IA ;</li>
<li>Librairie de <span style="color: #53548a;"><strong>scénarios de risque</strong> </span>avec les attaques spécifiques à l’IA ;</li>
<li>Librairie de <span style="color: #53548a;"><strong>mesures de sécurité à insérer dans les projets d’IA</strong>.</span></li>
</ul>
<p style="text-align: justify;"><strong> </strong></p>
<h2 style="text-align: justify;"><strong><span style="color: #50067a;">Quelles sont les prochaines étapes ?</span> </strong></h2>
<p style="text-align: center;"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-23359" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR.png" alt="" width="2000" height="806" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR.png 2000w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-437x176.png 437w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-71x29.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-768x310.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/06/AI-Act-Figure-6-FR-1536x619.png 1536w" sizes="auto, (max-width: 2000px) 100vw, 2000px" /></p>
<p style="text-align: center;"><em>Figure 6 : Chronologie de la mise en application de l’AI Act</em></p>
<p> </p>
<p>&#8212;</p>
<p style="text-align: justify;"><sup>1 </sup>La CNIL et ses équivalents européens pourraient mettre à profit leur expérience afin contribuer à une gouvernance plus harmonisée (entre les États membres et entre les textes eux-mêmes).</p>
<p style="text-align: justify;"><sup>2</sup> Données d’entrainements : Large ensemble de données d’exemples utilisées pour apprendre à l&rsquo;IA à faire des prédictions ou prendre des décisions.</p>
<p style="text-align: justify;"><sup>3 </sup>Biais : Un biais algorithmique est le fait que le résultat d&rsquo;un algorithme ne soit pas neutre, loyal ou équitable que ce soit de manière inconsciente ou délibérée.</p>
<p style="text-align: justify;"><sup>4</sup> Empoisonnement des données : Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’<a href="https://www.cnil.fr/definition/entrainement-ou-apprentissage">entraînement</a> (ou d’apprentissage).</p>
<p style="text-align: justify;"><sup>5</sup> FLOPS : Unité de mesure de la puissance d&rsquo;un ordinateur correspondant au nombre d&rsquo;opérations en virgule flottante qu&rsquo;il effectue par seconde, par exemple, GPT-4 a été entrainé avec une puissance de calcul de l’ordre de 10^28 FLOPs contre 10^22 pour GPT-1.</p>
<p style="text-align: justify;"><sup>6</sup> Bureau de L’IA : Organisme européen en charge de la mise en œuvre du règlement. A ce titre, il se voit confier de nombreuses tâches comme le développement d’outils ou de méthodologies ou encore la coopération avec les différents acteurs impliqués par ce règlement.</p>
<p style="text-align: justify;"><sup>7</sup> Open Source : Sont considérés en licence libre et ouverte (Open Source), les modèles d’IA qui permettent leur libre consultation, modification et distribution. Leurs paramètres et informations sur l’utilisation du modèle doivent être rendus publics.</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/">La cybersécurité au cœur de l’AI Act : éléments clés pour la mise en conformité</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/06/la-cybersecurite-au-coeur-de-lai-act-elements-cles-pour-la-mise-en-conformite/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>L’AI Act : les clés pour comprendre la première législation mondiale sur l’intelligence artificielle</title>
		<link>https://www.riskinsight-wavestone.com/2024/04/lai-act-les-cles-pour-comprendre-la-premiere-legislation-mondiale-sur-lintelligence-artificielle/</link>
					<comments>https://www.riskinsight-wavestone.com/2024/04/lai-act-les-cles-pour-comprendre-la-premiere-legislation-mondiale-sur-lintelligence-artificielle/#respond</comments>
		
		<dc:creator><![CDATA[Chirine Gurgoz]]></dc:creator>
		<pubDate>Mon, 08 Apr 2024 15:10:43 +0000</pubDate>
				<category><![CDATA[Cloud & Next-Gen IT Security]]></category>
		<category><![CDATA[Eclairage]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI ACT]]></category>
		<category><![CDATA[Artificial intelligence act]]></category>
		<category><![CDATA[GPAI]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[IA ACT]]></category>
		<category><![CDATA[SIA]]></category>
		<category><![CDATA[Union européenne]]></category>
		<guid isPermaLink="false">https://www.riskinsight-wavestone.com/?p=22812</guid>

					<description><![CDATA[<p>Le 13 mars 2024, le Parlement a adopté définitivement la version finale du Règlement Européen Artificial Intelligence Act, aussi dit « AI Act »[1]. Près de trois ans après la publication de la première version du texte, les vingt-sept pays de l’Union...</p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/04/lai-act-les-cles-pour-comprendre-la-premiere-legislation-mondiale-sur-lintelligence-artificielle/">L’AI Act : les clés pour comprendre la première législation mondiale sur l’intelligence artificielle</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p style="text-align: justify;">Le 13 mars 2024, le Parlement a adopté définitivement la version finale du Règlement Européen <em>Artificial Intelligence Act</em>, aussi dit « AI Act »<a href="#_ftn1" name="_ftnref1">[1]</a>. Près de trois ans après la publication de la première version du texte, les vingt-sept pays de l’Union Européenne sont parvenus à un accord historique sur les premières règles harmonisées à l’échelle mondiale en matière d’intelligence artificielle. La version finale du texte est attendue pour le 22 avril 2024, avant publication au Journal Officiel de l’Union Européenne.</p>
<p style="text-align: justify;">L’AI Act vise à garantir que les systèmes et modèles d’intelligence artificielle commercialisés au sein de l’Union européenne soient utilisés de manière éthique, sûre et <span style="color: #53548a;"><strong>respectueuse des droits fondamentaux de l’UE</strong></span>. Cette loi a également été rédigée pour renforcer la compétitivité et l’innovation des entreprises en matière d’IA. L’AI Act réduira les risques de dérives, renforçant la confiance des utilisateurs dans son utilisation et adoption.</p>
<p style="text-align: justify;">France Digitale, la plus grande association de startups en Europe, Gide, un cabinet d’avocats d’affaires français à dimension internationale, et Wavestone, ont réuni leurs forces pour co-écrire un livre blanc pour vous permettre de comprendre et appliquer la loi européenne sur l’IA : <a href="https://fr.wavestone.com/fr/insight/lai-act-les-cles-pour-comprendre-et-appliquer-la-loi-europeenne-sur-lintelligence-articificielle/">L&rsquo;AI Act : les clés pour comprendre et appliquer la loi européenne sur l&rsquo;intelligence artificielle</a>.</p>
<p style="text-align: justify;">Dans cette publication, France Digitale, Gide et Wavestone vous partagent leur vision de l’AI Act, des types de systèmes concernés aux grandes étapes de la mise en conformité.</p>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><span style="color: #50067a;"><strong>Quelques définitions pour commencer</strong></span></h3>
<p style="text-align: justify;">L’AI Act effectue une distinction entre les systèmes et les modèles d’intelligence artificielle qu’il définit comme suit :</p>
<ul style="text-align: justify;">
<li>Un <span style="color: #53548a;"><strong>système d’intelligence artificielle </strong></span>(SIA) est un système automatisé conçu pour fonctionner à différents niveaux d’autonomie et qui peut générer des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels.</li>
<li>Un <span style="color: #53548a;"><strong>modèle d’intelligence artificielle à usage général</strong></span> (“General Purpose AI systems” ou “GPAI”) est un système d’IA polyvalent, capable d’exécuter un large éventail de tâches distinctes. Il peut être intégré dans une variété de systèmes ou d’applications, démontrant ainsi une grande flexibilité et adaptabilité.</li>
</ul>
<p style="text-align: justify;"> </p>
<h3 style="text-align: justify;"><span style="color: #50067a;"><strong>Acteurs concernés</strong></span></h3>
<p style="text-align: justify;">L’AI Act concerne tous les<span style="color: #53548a;"> <strong>fournisseurs, distributeurs ou déployeurs</strong></span> de systèmes et de modèles d’IA, <span style="color: #53548a;"><strong>personnes morales</strong></span> (entreprises, fondations, associations, laboratoires de recherche, etc.), dont le siège social se situe dans l’Union européenne, ou lorsque le siège social est situé en dehors de l’Union européenne, qui commercialisent leur système ou modèle d’IA dans l’Union européenne.</p>
<p style="text-align: justify;">Le niveau de réglementation et les obligations associées <span style="color: #53548a;"><strong>dépendent du niveau de risque que présente le système ou le modèle d’IA.</strong></span></p>
<p style="text-align: justify;"><strong> </strong></p>
<h3 style="text-align: justify;"><span style="color: #50067a;"><strong>La classification des SIA selon le niveau de risque</strong></span></h3>
<p style="text-align: justify;">L’AI Act introduit une classification des systèmes d’intelligence artificielle. Les SIA doivent être analysés et hiérarchisés en fonction du risque qu&rsquo;ils présentent pour les utilisateurs : <span style="color: #53548a;"><strong>minime</strong>, <strong>faible</strong>, <strong>haut</strong></span> et <span style="color: #53548a;"><strong>inacceptable</strong></span>. Les différents niveaux de risque impliquent plus ou moins d’obligations.</p>
<p><img loading="lazy" decoding="async" class="alignnone wp-image-22934 size-full" src="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3.png" alt="" width="4201" height="2227" srcset="https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3.png 4201w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3-360x191.png 360w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3-71x39.png 71w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3-768x407.png 768w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3-1536x814.png 1536w, https://www.riskinsight-wavestone.com/wp-content/uploads/2024/04/IA-Act-FR-v3-2048x1086.png 2048w" sizes="auto, (max-width: 4201px) 100vw, 4201px" /></p>
<p>Les SIA à risque inacceptable sont interdits par l’AI Act et les SIA à risque minime n’ont pas d’obligations vis-à-vis du texte. Ce sont donc <span style="color: #53548a;"><strong>les SIA à risque haut et à risque faible qui concentrent l’essentiel des mesures prévues par le Règlement.</strong></span></p>
<p style="text-align: justify;">Des obligations particulières s’appliquent aux IA génératives et au développement de modèles d’IA à usage général (e.g. Large Language Models ou “LLMs”) selon différents facteurs : puissance de calcul, nombre d’utilisateur, utilisation d’un modèle open-source etc.</p>
<p style="text-align: justify;">Afin de répondre aux nouveaux enjeux liés à l’émergence de l’intelligence artificielle générative, l’AI Act prévoit notamment des mesures spécifiques de cybersécurité, qui visent à réduire les risques engendrés par l’émergence de l’intelligence artificielle générative.</p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Dans une prochaine publication, nous reviendrons en détails sur les volets cybersécurité de l’AI Act. D’ici là, vous pouvez retrouver nos dernières publications sur l’IA et la cybersécurité : « <a href="https://www.riskinsight-wavestone.com/2024/03/securiser-lia-les-nouveaux-enjeux-de-cybersecurite/">Sécuriser l’IA : Les Nouveaux Enjeux de Cybersécurité</a> », « <a href="https://www.riskinsight-wavestone.com/2023/10/lindustrialisation-de-lia-par-les-cybercriminels-faut-il-vraiment-sinquieter/">L’industrialisation de l’IA par les cybercriminels, faut-il vraiment s’inquiéter ?</a> », ou encore « <a href="https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/">Quand les mots deviennent des armes : prompt Injection et Intelligence artificielle</a> ».</p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> <a href="https://www.lemonde.fr/economie/article/2024/02/02/intelligence-artificielle-la-france-accepte-de-valider-l-ai-act-apres-sept-mois-d-opposition_6214488_3234.html">Intelligence artificielle : la France accepte de valider l’AI Act après sept mois d’opposition (lemonde.fr)</a></p>
<p>Cet article <a href="https://www.riskinsight-wavestone.com/2024/04/lai-act-les-cles-pour-comprendre-la-premiere-legislation-mondiale-sur-lintelligence-artificielle/">L’AI Act : les clés pour comprendre la première législation mondiale sur l’intelligence artificielle</a> est apparu en premier sur <a href="https://www.riskinsight-wavestone.com">RiskInsight</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.riskinsight-wavestone.com/2024/04/lai-act-les-cles-pour-comprendre-la-premiere-legislation-mondiale-sur-lintelligence-artificielle/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
