L’Anssi, en collaboration avec des agences de cybersécurité de 16 pays, a publié des recommandations pour protéger les systèmes d’IA face aux menaces croissantes. L’objectif est de promouvoir l’utilisation de systèmes d’IA de confiance.
Les menaces principales
Les systèmes d’IA sont vulnérables à trois types d’attaques :
- L’empoisonnement des données : altération des données d’entraînement pour modifier le comportement du modèle.
- L’extraction de données sensibles : récupération d’informations internes au modèle.
- L’évasion des systèmes : modification des données d’entrée pour tromper l’IA.
Ces attaques peuvent compromettre l’infrastructure ou exploiter des failles dans la supply chain.
Recommandations clés
L’Anssi propose plusieurs actions pour sécuriser les systèmes d’IA :
- Validation humaine à chaque étape pour limiter les risques d’autonomie excessive.
- Cartographie de la supply chain (matériels, logiciels, jeux de données) pour prévenir les attaques.
- Maintenance continue et veille technologique pour rester informé des nouvelles menaces.
Formation et coordination
L’Anssi souligne l’importance de former les équipes aux risques de l’IA et de favoriser une meilleure coordination entre les agences de cybersécurité et celles spécialisées en IA, comme les “AI Safety Institutes” en développement.