News

Le témoin numérique : l’intelligence artificielle remodèle la justice pénale

  • Faculté de Droit, d'Économie et de Finance (FDEF)
    19 février 2025
  • Catégorie
    Recherche
  • Thème
    Droit

Il y a cinq ans, quand l’idée d’avoir à portée de main – et des salles d’audience – de grands modèles de langage et une IA générative était encore lointaine, les experts en droit pénal ont commencé à s’interroger sur la manière dont ces technologies émergentes vont remodeler le système juridique.  

En 2020, Prof. Katalin Ligeti a obtenu la bourse convoitée CORE du Luxembourg National Research Fund pour mener le projet de recherche CRIM_AI. Une équipe d’experts étudie comment les éléments clés de la justice pénale, notamment les procès équitables, la protection des données et le droit à la vie privée, peuvent être préservés dans un avenir partagé avec des systèmes d’IA propriétaires. Les enjeux sont de taille : « L’Union européenne prévoit une numérisation du système judiciaire, donc l’adoption de nouvelles technologies va s’accélérer dans un avenir proche », explique Prof. Ligeti, doyenne de la Faculté de Droit, d’Économie et de Finance.  

L’essor de l’intelligence artificielle, alimenté par la technologie de l’IA générative, s’est produit en parallèle aux travaux des chercheurs, leur permettant d’évaluer en temps réel les évolutions dans les procédures judiciaires.

Comment garantir un procès équitable et faire respecter les droits de l’homme lorsque des systèmes d’IA propriétaires sont utilisés pour générer ou traiter des preuves ? Ce type de questions urgentes doit être traité en amont.”

Prof. Katalin Ligeti

Doyenne de la Faculté de Droit, d’Économie et de Finance
Professeur en Droit

Cartographie des types de preuves générées par l’IA

L’équipe de recherche a identifié trois catégories de preuves générées par l’IA : les preuves recueillies à l’aide d’un outil d’IA, les preuves générées ou améliorées par l’IA et les preuves collectées à l’aide de pistes générées par l’IA.  

Les outils d’IA sont utilisés pour des tâches qui induisent facilement à des erreurs ou sont laborieuses ou psychologiquement lourds, par exemple passer au crible de grandes quantités de données pour rechercher des preuves potentielles (telles que des échanges d’e-mails incriminants, ou pour signaler des activités et des contenus suspects ou criminels). Les données filtrées ou signalées par l’outil d’IA pourraient ensuite être présentées, dans leur forme originale non modifiée, comme preuves devant un tribunal.  

La deuxième catégorie comprend, par exemple, le génotypage probabiliste médico-légal – où l’IA interprète des échantillons d’ADN mélangés et fragmentés pour les faire correspondre à des suspects – ainsi que les images améliorées par l’IA. C’est le cas par exemple si l’IA est utilisée pour agrandir ou améliorer la qualité d’une image de vidéosurveillance. Mais les preuves générées par l’IA ne se limitent pas aux applications médico-légales : Les produits de consommation, tels que les montres intelligentes, les assistants virtuels ou les applications de santé, peuvent générer des données, des modèles et des conclusions susceptibles de devenir pertinents pour les procédures pénales.  

Le troisième type se produit lorsque les systèmes d’IA sont utilisés au stade de l’enquête pour générer des pistes pouvant déclencher une analyse secondaire effectuée par des humains. Par exemple, on peut utiliser un outil de reconnaissance faciale pour établir une ligne d’identification, puis confirmer l’identification du suspect par un témoin oculaire. Cependant, sauf indication explicite dans le dossier, les intervenants en salle d’audience ne sauront que l’IA a été utilisée pour « guider » ce qui est ensuite présenté au tribunal comme une analyse humaine. C’est ce que les chercheurs ont appelé le « paradoxe de la piste », et l’équipe de recherche s’efforce de proposer de nouvelles recommandations politiques aux législateurs, explique Prof. Ligeti.  

La balance entre réglementation et innovation

Pour trouver un équilibre entre réglementation et innovation en ce qui concerne les technologies d’IA, les états font pencher la balance en fonction des priorités nationales. Une analyse comparative montre que les États-Unis examinent déjà de nouvelles propositions législatives visant à adapter les règles et les normes en matière de preuves aux nouveaux défis posés par les preuves générées par l’IA. En outre, des affaires relatives à l’admissibilité des preuves issues de l’IA sont déjà en cours devant les tribunaux américains.  

L’Europe adopte une position plus prudente. La loi sur l’IA (AI Act) est entrée en vigueur en août 2024 et sera progressivement mise en œuvre par les États membres. Il s’agit d’un texte législatif de grande envergure qui fournit des définitions juridiques, des cas d’utilisation interdits et impose aux fabricants et aux commerçants des règles spécifiques. Dans les procédures pénales, l’IA a principalement été utilisée comme un outil de soutien limité à la phase d’enquête. Cependant, à l’instar des États-Unis, cette approche pourrait bientôt évoluer. 

Ce que l’avenir nous réserve

La technologie peut également être une force positive dans la justice pénale, souligne Prof. Ligeti. L’utilisation de l’IA pour examiner les preuves pourrait éliminer les préjugés humains et donc garantir la neutralité dans certaines situations. La réalité virtuelle pourrait également avoir sa place dans la salle d’audience du futur. Les scènes de crime pourraient être recréées virtuellement pour les parties prenantes à l’aide des casques de réalité virtuelle. « Une telle expérience, que seule une technologie avancée telle que l’IA peut nous offrir, pourrait même avoir le pouvoir de changer l’issue des procès pénaux », explique Prof. Ligeti.

En juin 2025, le groupe de recherche publiera ses conclusions, qui serviront de base à une analyse comparative et à l’élaboration de propositions politiques concrètes.

« Le rôle des chercheurs est de montrer les cas problématiques aux décideurs politiques, afin de les aider à déterminer les risques et les avantages que l’intelligence artificielle peut apporter au système de justice pénale », déclare Prof. Ligeti. Les preuves recueillies à l’aide de l’IA doivent rester crédibles et fiables. Il ne s’agit pas seulement d’une question de procédure, mais aussi d’une garantie des droits fondamentaux et des droits de l’homme, pierre angulaire de la justice pénale.