Technologies, Armements & Innovations

Le ministère des Armées met en avant deux solutions pour sécuriser ses algorithmes d’intelligence artificielle – Zone Militaire

Quelle que soit sa catégorie [descriptive, prédictive, prescriptive ou générative], une intelligence artificielle [IA] doit être « nourrie » avec des données fiables pour être digne de confiance, et donc efficace.
Une fausse information dans un tel système d’IA pouvant être utiliser pour accélérer la prise de décision d’un poste de commandement, par exemple, pourrait avoir des conséquences fâcheuses.

D’où la nécessité de développer des solutions afin de garantir l’intégrité des systèmes militaires ayant recours à l’intelligence artificielle.

À cette fin, l’Agence de l’innovation de défense [AID] et le Commandement de la cyberdéfense [COMCYBER] ont organisé le défi « Sécurisation de l’IA », avec l’objectif de solliciter les entreprises et les laboratoires de recherche susceptibles de proposer des technologies permettant de protéger des systèmes incluant une intellitgence artificielle et de détecter des attaques pouvant affecter leur bon fonctionnement.

Visant à « assurer l’intégrité des systèmes tout au long de leur vie opérationnelle », ce défi a intéressé une dizaines de structures spécialisées [laboratoire, entreprises innovantes, grands groupes, etc.] Et, a fait savoir le ministère des Armées, le 30 avril, deux ont été primées par un jury comprenant des représentants du COMCYBER, de l’AID, de l’Agence ministérielle pour l’intelligence artificielle de défense [AMIAD] et de la Direction générale de l’armement [DGA].

Ainsi, proposée par PRISM EVAL, la suite BET EVAL permet de sécuriser ce que l’on appelle les LLMs [large language models ou « modèle massif de langage »], c’est-à-dire des réseaux de « neurones profonds » fonctionnant par apprentissage auto ou semi supervisé. Ils sont notamment utilisés pour les agents conversationnels, et donc par l’IA générative.

Dans le détail, BET Eval a été conçue pour « tester la robustesse des LLMs, en s’appuyant sur une approche innovante à base de combinaison de primitives comportementales d’attaques, qui permet d’adresser un large panel d’attaques », explique le ministère des Armées. Les essais de cette suite ont porté sur la génération de contenus malveillants et/ou dangereux, l’extraction non autorisée de données et le « contournement » des garde-fous.

Mise au point par CEA-List [du Commissariat à l’Énergie Atomique et aux Énergies Alternatives], la seconde solution lauréate de ce défi permet de contrer les attaques visant à corrompre des données afin d’induire en erreur une intelligence artificielle. Elle repose sur deux outils.

Le premier, appelé PyRAT, « assure une vérification formelle de la sécurité d’un réseau de neurones apportant des garanties mathématiques fortes, pour se prémunir de modifications imperceptibles des données par l’attaquant », précise le ministère. Quant au second, baptisé PARTICUL, il détecte « les parties récurrentes d’un ensemble de données pour calculer un score de confiance sur de nouvelles données, et permet de se prémunir de modifications plus visibles tels que l’ajout de patchs ».



Auteur : Laurent Lagneau

Aller à la source

Cédric

Depuis 1998, je poursuis une introspection constante qui m’a conduit à analyser les mécanismes de l’information, de la manipulation et du pouvoir symbolique. Mon engagement est clair : défendre la vérité, outiller les citoyens, et sécuriser les espaces numériques. Spécialiste en analyse des médias, en enquêtes sensibles et en cybersécurité, je mets mes compétences au service de projets éducatifs et sociaux, via l’association Artia13. On me décrit comme quelqu’un de méthodique, engagé, intuitif et lucide. Je crois profondément qu’une société informée est une société plus libre.

Cédric has 6791 posts and counting. See all posts by Cédric