Le décret du 30 juin sur l'open data des décisions de justice a entériné la modification du régime de mise à disposition du public des décisions de justice des juridictions administratives et judiciaires. Plusieurs points restent toutefois à clarifier notamment en matière de régulation des algorithmes utilisés pour l’exploitation des bases de données des décisions de justice. Sans compter les interrogations que soulève l’application de l’IA à la justice.
Si l’on sait que les premières décisions qui seront diffusées en open data seront les arrêts de la Cour de cassation, les conditions d’encadrement du recours aux algorithmes dans le cadre de la diffusion auprès du public des décisions de justice sont absentes du décret du 30 juin. Ce flou suscite l’inquiétude de la présidente du Conseil national des barreaux (CNB) Christiane Féral-Schuhl qui a remis le 20 août une note au garde des Sceaux à propos de l’open data et des algorithmes. Pour garantir la transparence, la non-discrimination et l’éthique de ces algorithmes et lutter contre les éventuels biais, le CNB recommande la création ou la désignation d’une instance publique chargée de leur régulation (voir ODA 500). «Nous demandons à en faire partie aux côtés des plus hautes autorités de l’ordre judiciaire et administratif», précise-t-elle. Elle alerte également sur la formation des magistrats et des avocats pour qu’ils apprennent à critiquer et discuter les résultats des algorithmes en toute connaissance de cause. «Côté commande publique, l’intégration de principes éthiques comme ceux de la charte de la Commission européenne pour l’efficacité de la justice (CEPEJ), dans les appels d’offres du ministère de la Justice me semble indispensable», ajoute-t-elle.
Eviter l’intégration de biais dans les algorithmes
La lutte contre les biais pouvant influencer des décisions de justice fait aussi partie des préoccupations du CNB. «On sait que le salaire des femmes est souvent inférieur à celui des hommes. Si un algorithme intègre cette donnée, qu’en sera-t-il des indemnisations qui pourront leur être allouées en tant que victimes puisque ces dédommagements se basent sur leurs rémunérations ? Si ce biais est entériné dans des algorithmes, il y a un risque qu’il soit perpétué dans les décisions», s’interroge la présidente du CNB.
Pour Christophe Roquilly, doyen du corps professoral et de la recherche à la tête du Edhec Augmented Law Institute (voir ODA 499), l’Etat doit s’interroger sur le degré de régulation plus ou moins contraignant à injecter dans tous les domaines de l’IA, dont celui de la justice, sachant que l’Europe avance en parallèle sur une roadmap sur ce sujet et devrait déboucher sur des décisions (ou projets de décisions) plus concrètes début 2021. «La France a pris du retard en matière de traitement algorithmique des décisions de justice par rapport aux Etats-Unis où des recherches sont possibles pour un domaine particulier par tribunal, par composition de la juridiction, par partie en présence, explique-t-il. C’est une vraie manne pour un avocat en droit des affaires, ajoute-t-il, mais si nous nous retrouvons à utiliser des algorithmes créés majoritairement par des sociétés anglo-américaines, nous risquons de perdre une autre bataille économique». De fait, ce qui se joue en arrière-plan de l’IA, c’est le duel entre une vision anglo-saxonne et continentale du droit. Selon la présidente du CNB, il faut éviter une dérive où la jurisprudence prendrait le pas sur la règle de droit.
Nécessité de se donner des règles de conduite
L’open data des décisions judiciaires a ouvert un champ d’exploration très large aux acteurs privés. Predictice est une plateforme de recherche et d’analyse de l’information juridique. Elle utilise pour cela l’intelligence artificielle (machine learning, big data) pour développer des algorithmes comprenant le langage juridique. Pour Elise Maillot, ancienne avocate et responsable des relations publiques de Predictice, une régulation du recours à la justice prédictive est nécessaire. Dès 2017, la legaltech a mis en place un comité éthique et scientifique de la justice prédictive composé notamment d’avocats, d’universitaires et de représentants des institutions pour intégrer une dimension de régulation interne. Sa composition est en cours de renouvellement. La structure a élaboré une charte éthique de la justice prédictive reprenant certains principes de la charte éthique de la CEPEJ (*) qu’elle s’est engagée à appliquer. Pour désamorcer les craintes suscitées par l’IA, Elise Maillot recommande de poursuivre le travail de pédagogie, même si les professionnels du droit sont devenus plus technophiles que par le passé. «Predictice reste un outil d’aide à la décision mis entre les mains des professionnels du droit uniquement», conclut-elle.
(*) rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b