News

Une course contre les deepfakes : comment l’IA combat l’IA

  • Interdisciplinary Centre for Security, Reliability and Trust (SnT)
    25 mars 2025
  • Catégorie
    Recherche
  • Thème
    Informatique & TIC

Toutes les cinq minutes, quelque part dans le monde, quelqu’un crée un nouveau deepfake. Alors que cette menace alimentée par l’IA s’intensifie, les chercheurs développent des outils tout aussi puissants pour riposter.

En 2024, une tentative de deepfake s’est produite toutes les cinq minutes, selon un rapport de l’Entrust Cybersecurity Institute. Le rapport montre une tendance inquiétante. Les fraudeurs mélangent techniques nouvelles et anciennes pour contourner les nouvelles stratégies de défense. Les criminels utilisent des informations personnelles identifiables (PII) volées lors de violations de données ou de hameçonnage. Ensuite, ils créent des identités synthétiques hyper-réalistes.

Les deepfakes utilisent l’intelligence artificielle pour créer des vidéos, des images ou des fichiers audios convaincants mais faux. Ils peuvent faire apparaître des personnes disant ou faisant des choses qu’elles n’ont jamais faites, des imitations de célébrités aux fausses vidéos d’actualités mettant en scène des personnalités politiques. La technologie a progressé si rapidement que repérer les faux est devenu de plus en plus difficile pour l’œil humain.

La bonne nouvelle est que les chercheurs utilisent des modèles d’IA puissants pour répondre à ces menaces de l’IA. Les chercheurs de l’Interdisciplinary Centre for Security, Reliability and Trust (SnT) de l’Université du Luxembourg développent des modèles d’IA avancés pour détecter les deepfakes depuis 2022.

Leur objectif est clair: rendre la détection des deepfakes plus rapide, plus précise et plus résistante face aux menaces en évolution.