
IA et justice : les lignes directrices de la Cour de cassation
Lundi 28 avril 2025, le groupe de travail sur l’intelligence artificielle constitué au sein de la Cour de cassation et présidé par Sandrine Zientara, présidente de chambre et directrice du service de documentation, des études et du rapport (SDER) a rendu son rapport au premier président Christophe Soulard et le procureur général Rémy Heitz.
Le premier président et le procureur général avaient mis en place, le 29 mai 2024 un groupe de travail interne à la Cour de cassation afin d’identifier les cas d’usage possibles de l’intelligence artificielle (IA) à la Cour et de conduire une réflexion plus large sur les interrogations que ces usages pouvaient susciter, au regard de l’office du juge et du respect des droits humains. Le groupe comptait des représentants de la première présidence, du parquet général, de chacune des chambres de la Cour et du Service de documentation des études et du rapport (SDER), qui compte des data scientists, membres du laboratoire d’innovation ainsi que du greffe. Il a procédé à une vingtaine d’auditions d’experts
Des solutions multiples à développer en interne selon des critères d’évaluation
Le rapport souligne que le groupe de travail n’a pas voulu se cantonner à l’examen des solutions issues de l’IA générative, mais également aux technologies plus anciennes. Il considère que le développement de solutions internes adaptées à l’usage propre de chaque juridiction, garantit une meilleure agilité des outils et permet la maîtrise des données, de leur traitement algorithmique et de leur hébergement. Le rapport définit les critères d’évaluation des cas d’usage qui doivent être conformes aux règles juridiques (respect du règlement sur l’intelligence artificielle, RGPD, etc.), éthiques, présenter un intérêt (gain de qualité ou gain d’efficacité) et répondre à certaines exigences techniques et économiques, comme la disponibilité de la donnée, la possibilité ou non de la traiter pour un coût raisonnable (coût en ressources humaines, coût en puissance de calcul et coût d’exploitation).
Les catégories de cas d’usage
Le rapport identifie trois grandes catégories générales de cas d’usage, qui peuvent se décliner dans tous les types de juridictions, à savoir ceux liés à l’exploitation des écritures des parties, ceux liés à la recherche et à l’exploitation des bases de données documentaires et ceux relatifs à l’aide à la rédaction. Le rapport souligne qu’au sein de la Cour de cassation, aucun besoin d’aide à la décision n’a été identifié. Concernant le recensement des besoins, il indique que beaucoup relevaient en réalité davantage des applicatifs métiers de traitement de la procédure que d’applications d’IA, ce qui n’est pas surprenant. Le groupe de travail a finalement mis en évidence que certains cas d’usage sont relativement simples et ne posent pas de difficulté juridique ou éthique en offrantdes gains fonctionnels considérables. D’autres, plus complexes, nécessitent des investissements plus lourds qui peuvent toutefois se justifier au regard des résultats attendus. La troisième catégorie, qui regroupe notamment les cas d’usage liés à l’aide à la rédaction, présenterait de l’intérêt, notamment pour le traitement des litiges sériels mais sont d’une complexité particulière en raison d’enjeux éthiques, juridiques et techniques importants.
Le groupe de travail estime en conclusion que pour que l’IA puisse être utilisée dans le domaine de la justice, certaines conditions sont impératives. En premier lieu, l’institution judiciaire doit se doter d’un système d’information « solide, fiable, centré sur les besoins des utilisateurs et prenant en considération des objectifs de bonne structuration ». La question du stockage des données doit également être considérée. Le groupe de travail insiste également sur la primauté des principes directeurs éthiques et la mise en place d’un système de gouvernance, avec un comité de suivi des développements de l’IA, la mise en place de formations et l’élaboration d’une charte de bonnes pratiques, d’un référentiel interne ou d’une charte éthique. La mise en place d’une autorité de surveillance indépendante est aussi préconisée.
Lire le rapport : https://www.courdecassation.fr/files/files/Publications/IA%20-%20Rapport%202025/Rapport_IA_2025_Web.pdf