A propos

Le guide de l’ANSSI sur l’IA générative

Le 29 avril 2024, l’Agence nationale de la sécurité des systèmes d’information (l’ANSSI), publie un nouveau guide. Le public visé est vaste (administrateurs, RSSI, DSI et utilisateurs), et le sujet d'actualité : l'Intelligence Artificielle Générative (IAG)





Les procédés d'attaque de l'IA générative :

Selon le guide, lequel reprend le glossaire de la CNIL, il y a trois procédés d’attaque d'un système d'IA générative (SIAG) : l'Agence Nationale de Sécurité des Systèmes d'Information (ANSSI) répertorie ainsi les attaques par manipulation, par infection ou par exfiltration. S'agissant des deux premiers procédés, l'attaque par manipulation et par exfiltration, celles-ci interviennent au stade de la mise en production du Système d'Intelligence Artificielle (SIA). En outre, si l'attaque par manipulation a pour but de détourner l’IA via des requêtes malveillantes, celle par exfiltration a pour objectif de procéder au vol de données. Ces données peuvent notamment être des données d’entraînement du modèle, des données des utilisateurs ou bien encore des données internes du modèle (paramètres). Enfin, l’attaque par infection intervient pendant la phase d’entraînement ou de test de l’IA, et vise à altérer les données d’entraînement, au besoin en insérant une porte dérobée .

Les mesures de protection de l'IA générative :

L’ANSSI offre un large panel de recommandations : parmi elles, l'agence de cybersécurité française émet 15 recommandations générales, 4 recommandations pour la phase d’entraînement, 3 recommandations pour la phase de déploiement et 5 recommandations pour la phase de production. In fine, le guide aborde des cas particuliers : la génération de code source assistée par l’IA, les services d’IA grand public exposés sur internet et l’utilisation de solutions d’IA génératives tierces. En outre, si ce guide a pour vocation d'être adapté à la diversité des systèmes d’information, l'agence rappelle la nécessité d'appliquer ces recommandations avec vigilance et, dans tous les cas« (...) de soumettre l'implémentation des mesures à la validation préalable de l’administrateur système et, ou des personnes en charge de la sécurité des systèmes d’information. »

Recommandation générale : la vie privée par défaut

S'il devait être une recommandation qui mérite d'être retenue, ce serait la suivante : « prendre en compte les enjeux de confidentialité des données dès la conception du SIA ». Il s’agit là d'un concept bien connu en matière de droit lié au respect de la vie privée, visé par le principe de « Privacy by Design » lequel impose, selon les cas, la réalisation d’une étude d’impact sur la vie privée ou analyse d'impact sur la protection des données (AIPD). C'est en outre le cas lorsque le traitement de données à caractère personnel implique l'utilisation d'une solution technologique innovante, comme peut l'être l'Intelligence Artificielle (IA)... En outre, il convient de rappeler qu'un SIA qui traite des données à caractère personnel constitue, dans certains cas, avant tout un traitement de données personnelles : à ce titre, l'article 27.4 du Règlement sur l'Intelligence Artificielle (RIA) ou Artificial Intelligence Act (AIAct) rappelle ainsi que "si l'une des obligations énoncées dans le présent article est déjà satisfaite par l'analyse d'impact sur la protection des données, celle relative aux droits fondamentaux visée au paragraphe 1 de l'article 27 du présent règlement, la complète.". Pour résumer, un système d'intelligence artificielle qui traite des données à caractère personnel requiert non seulement la réalisation d'une AIPD, telle que prévue par le RGPD, mais aussi la réalisation d'une analyse d'impact sur le droits fondamentaux, telle que prévue cette fois par le RIA.