Comment évaluer la robustesse d’un système d’intelligence artificielle face aux attaques de sécurité ? Cette question est au cœur d’un article du SnT qui a récemment été récompensé en tant que « spotlight paper » lors de la prestigieuse conférence NeurIPS.
Plus de 15 000 articles ont été soumis pour cet événement, et 25 % ont été acceptés pour publication. Seuls 3 % d’entre eux ont été sélectionnés pour être publiés.
« C’est la publication la plus prestigieuse que nous ayons reçue, après plus de cinq ans d’investissement dans la recherche sur la fiabilité de l’IA », se réjouit Maxime Cordy, chercheur et co-auteur de l’article avec Thibault Simonetto et Salah Ghamizi.