À travers une expérience de laboratoire, Irene Locci explore la manière dont les individus perçoivent les sanctions selon qu’elles sont infligées par un juge humain ou par un algorithme. Son dispositif, à la fois rigoureux et original, permet de mieux comprendre les ressorts de la décision judiciaire, la préférence des contrevenants pour des jugements automatisés en cas d’incertitude et la réticence des juges à déléguer leur pouvoir. Entre équité perçue, émotions morales et confiance dans les technologies, ses résultats offrent des pistes précieuses pour penser l’intégration des algorithmes dans les processus judiciaires.
Irene Locci a reçu le prix Jeune chercheur de l’AFED pour son article Judged by robots: Preferences and perceived fairness of algorithmic vs. human punishments, co-écrit avec Sébastien Massoni et présenté lors de la conférence de l’AFED, à Paris les 12 et 13 décembre 2024.
Cet entretien (également disponible en version vidéo) s’inscrit dans le cadre du partenariat noué entre l’Institut Robert Badinter (anciennement IERDJ) et l’AFED dans une perspective pluridisciplinaire et de soutien à la jeune recherche.

Lorsque la sévérité de la sanction est incertaine, les contrevenants anticipent probablement une forme de stigmatisation de la part de juges humains, qui, en plus d’infliger une peine, pourraient exprimer un jugement moral. Une sanction humaine est ainsi perçue comme plus sévère qu’une simple amende.
Nos résultats suggèrent qu’une approche hybride, où les algorithmes assistent sans remplacer le jugement humain, est la meilleure solution pour préserver la confiance du public tout en profitant des avantages technologiques dans le processus judiciaire
Votre travail montre que les contrevenants tendent à préférer les algorithmes, surtout lorsque la sévérité des sanctions est incertaine. Quelles raisons expliquent cette préférence selon vous ?
I.L : Lorsque la sévérité de la sanction est incertaine, les contrevenants anticipent probablement une forme de stigmatisation de la part de juges humains, qui, en plus d’infliger une peine, pourraient exprimer un jugement moral. Une sanction humaine est ainsi perçue comme plus sévère qu’une simple amende. Dès lors, les participants supposent que les juges humains punissent plus durement les infractions plus graves, ce qui incite les contrevenants à préférer un juge algorithmique lorsqu’ils enfreignent davantage la norme. Si l’algorithme applique une sanction sévère avec 50 % de probabilité, ils espèrent toujours obtenir la sanction plus clémente. En l’absence d’informations sur le processus de sanction, les algorithmes sont perçus comme plus objectifs.
Vous avez observé que les juges humains sont généralement réticents à déléguer leurs décisions à des algorithmes sauf dans certains cas. Quelles sont ces exceptions ? Est-ce pour des raisons éthiques, de pratiques professionnelles ?
I.L : Dans notre expérience, les juges humains restent réticents à déléguer à des algorithmes, bien qu’ils y soient un peu plus enclins lorsqu’ils n’ont aucun pouvoir discrétionnaire sur la sévérité de la sanction. Ainsi, nos résultats confirment probablement que les individus n’aiment pas déléguer, sans pour autant refléter une aversion spécifique aux algorithmes. Cette réticence pourrait être liée à des considérations éthiques, mais nous ne l’avons pas testée. Par ailleurs, les juges moins enclins à prendre des risques délèguent en conséquence moins. Enfin, nos juges ne sont pas de vrais magistrats, mais des participants assignés au hasard à cette tâche, sans implication de pratiques professionnelles.
Votre recherche souligne que les perceptions d’équité sont similaires entre les décisions humaines et algorithmiques, sauf lorsque les juges humains sont plus cléments. Comment expliquez-vous cette différence ?
I. L : Cette différence n’apparaît que lorsque la sanction est déterminée avec 50% de chances d’être sévère ou légère. Les participants savent que l’algorithme applique cette probabilité exacte, indépendamment de la gravité de l’infraction. En revanche, les juges humains décident volontairement du niveau de sanction. On s’attend donc à ce qu’ils soient plus sévères pour les infractions graves, mais lorsqu’ils infligent une sanction clémente, ils sont perçus comme justes et bienveillants. On peut relier cela aux résultats de la littérature montrant que les décisions humaines provoquent des émotions plus intenses que celles des algorithmes et que les attributions morales sont moins marquées pour ces derniers.
Au regard de vos résultats, quels conseils donneriez-vous pour intégrer les algorithmes dans les processus judiciaires tout en préservant la confiance du public ?
I.L : Nos résultats suggèrent qu’une approche hybride, où les algorithmes assistent sans remplacer le jugement humain, est la meilleure solution pour préserver la confiance du public tout en profitant des avantages technologiques dans le processus judiciaire. Nous montrons que les individus sont réticents à déléguer des décisions à des algorithmes, rendant une automatisation complète peu acceptable. De plus, nos résultats indiquent que les décisions humaines suscitent des réactions émotionnelles plus fortes que celles des algorithmes. Cela peut donner l’impression d’une plus grande sévérité, mais aussi renforcer la perception d’équité pour une sanction clémente. Pour maintenir la confiance, les algorithmes devraient servir d’outils d’aide à la décision, tout en laissant aux juges le choix final.
Le partenariat Institut Robert Badinter – AFED
Depuis 2023, l’Institut Robert Badinter (anciennement IERDJ) et l’AFED (Association française d’économie du droit) ont noué un partenariat qui vise à renforcer les liens entre les savoirs et les méthodes des sciences économiques et les enjeux du droit et de la justice.
Dans une perspective pluridisciplinaire et de soutien à la jeune recherche, les deux structures coorganisent une table ronde en pré-ouverture de la conférence annuelle de l’AFED (2023 : « Structures de marchés et modèles d’affaires dans le monde du droit : entre adaptations et transformations face aux enjeux numériques » ; 2024 : « Devoir de vigilance et nouvelles obligations pesant sur les entreprises et les organisations »).
L’Institut Robert Badinter accueille également dans ses locaux le ou la lauréate du prix Jeune chercheur de l’AFED pour réaliser un entretien vidéo diffusé ensuite sur les réseaux sociaux et les sites web des deux partenaires. (Chloé Zapha, lauréate 2023 et Irene Locci, lauréate 2024).