NamurDroit

Derniers articles publiés

Colloque : « Le juge et l’algorithme : Juges augmentés ou Justice diminuée », conclusions de Yves Poullet

Faire le procès à charge ou à décharge de la justice prédictive, tel était bien le propos de la journée qu’il m’est donné de conclure comme le magistrat conclut l’affaire. Et j’ai donc envie de déclarer : Pour la réponse à votre demande de jugement, poussez sur la touche 1 Et vous me direz avec raison, c’est un peu court, « jeune » homme. En effet, en vous écoutant, je me suis rendu compte combien le débat était au sens propre et noble du terme « politique », c’est-à-dire qu’il concernait la gestion et le bien de la Cité, qu’en tout cas, il interrogeait profondément, notre conception de la Justice, le rôle des différents acteurs du droit, leur formation et notre appréhension des droits de l’homme.

Politique, Monsieur le Ministre, car en toute hypothèse, et faut-il en appeler sur ce point à l’Europe, il est temps que vous leviez un préalable : Tout jugement doit être accessible en « open data ». C’est un prérequis de toute utilisation intelligente du numérique. Permettez-moi dès lors de vous encourager, sur le modèle français, à décréter la ‘Royauté numérique’ et y acter que :« les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit dans le respect de la vie privée des personnes concernées » Nous y verrions et cela ne souffre aucune discussion un élément de transparence de l’activité du service public que constitue l’action du judiciaire et ce au bénéfice d’une meilleure connaissance par tous de l’interprétation donnée aux règles qui gouvernent notre société, c’est une obligation que l’article 10 de la CEDH enjoint à nos Etats et à laquelle nous sommes , contrairement à nombre de nos pays voisins en défaut de réponse. Certains y verront en outre de quoi nourrir notre intelligence humaine et surtout artificielle qui ne peut, deep learning oblige, que travailler sur du ‘BIG DATA’, 12  millions de jugements seraient au minimum nécessaires pour que des systèmes d’intelligence artificielle puissent apporter leur plus value, nous a dit le bâtonnier de l’ordre des avocats .

Cette première décision simple en appellera d’autres et je ne veux pas parler ici du budget nécessaire à l’opération dont comme sœur Anne je ne vois pas le premier franc venir. Le texte français que je vous suggère de reprendre exige le respect de la vie privée, autre disposition de la CEDH. La vie privée n’exige pas l’anonymat. Il est impossible comme l’ont confirmé notre expert des assurances et nos collègues GERARD et LEWKOWICZ mais faut-il pseudonymiser ? Les instances internationales, le règlement, le CJUE, le Conseil de l’Europe ne nous laissent guère de choix. La réponse est oui au regard des risques qu’une publication électronique et surtout ré-exploitable sans difficulté laissent augurer

Quelques questions en aval de cette première réponse : La première : Qui ‘pseudonymise’: le juge, le greffe, l’administration ? Voilà un coût non négligeable mais surtout une compétence non acquise au regard des difficultés que représente la réponse à la seconde question. Jusqu’où doit-on veiller à garantir l’anonymat toujours relatif des personnes mentionnées dans le jugement et de quelles personnes parle–t-on ? L’identité des parties se révèle par mille détails : l’adresse, un numéro de compte, mais également le nom d’un voisin, la présence d’une école à dix mètres de la maison, … Nos jugements à force de ratures ressembleront bientôt à des histoires sans saveur, pleine de trous, et peuplé de fantômes X, Y , Z., et cela, au moment même où les tenants de l’IA nous disent que de telles données sont pourtant nourriture essentielle pour leurs algorithmes. Au-delà des personnes physiques, faut-il ‘pseudonymiser’ les personnes morales ? Oui, sauf, ajoute l’Europe, à trahir un secret d’affaires en publiant l’intégralité du jugement mais au-delà de cette exception, ne faut-il pas protéger certaines entreprises, en particulier les PME, des possibilités qu’offrent aux grands décideurs grâce aux systèmes d’IA de déclarer hors-jeu certaines entreprises demanderesses de crédit ou d’assurances sur base de leur ‘bilan judiciaire’ ? Au-delà, faut-il publier les noms des magistrats ? Oui, au nom de leur responsabilité sociale dans l’exercice de leur profession, diront certains. Non, diront d’autres, souhaitant éviter le ranking de nos magistrats par les outils d’IA, risque bien réel comme l’ont répété le premier magistrat du Royaume et nos collègues LEROUX et LEWKOWICZ : ‘Know your Judge’. Et les avocats, invités également à comparaître devant le tribunal de l’IA , comment conçoivent-ils leur propre responsabilité sociale et ne craindront-ils pas ou, au contraire, souhaiteront ils la publicité sortie des ordinateurs, en l’espérant positive: « Avec moi autant de chance de gagner telle affaire, c’est l’ordinateur qui le dit !!! ?.

Voilà donc bien des questions préalables qu’une réflexion des principaux intéressés devrait résoudre. Le rapport des deux Patrick sur le futur de la profession d’avocat- préconise que la gestion de ce VAJA (Vonnissen Arresten/ Jugements et Arrêts) (Monsieur le Ministre, où en est-elle cette base de données complète, bilingue et promise depuis si longtemps ?) soit le fait d’un Institut public mixte co-géré : ‘Avocats- Magistrats’. Sans doute, est-ce une bonne idée à condition que de telles décisions préparées certes par cet institut fassent l’objet préalable d’une discussion publique et en définitive soient l’objet d’un texte réglementaire, pris en exécution de votre loi sur la ‘Royauté numérique’, Monsieur le Ministre ? Par ailleurs, ce réservoir de données, il va falloir l’interroger intelligemment sous peine de s’y engloutir ? Sans doute et nous y reviendrons, là l’IA a-t-elle un rôle ? Nous y reviendrons.

Greffer sur cette base de données (en version intégrale dans les deux langues ? et en tout cas en open data) des outils d’IA, soulève bien des questions. Commençons par celles évoquées par certains, à savoir celles relatives aux outils qui pourraient être développées par des entreprises privées ou des associations au profit de leurs membres. Il est certain que la manne d’informations rendus disponibles du fait de la création de cette base de données en open data tombera d’abord dans l’’escarcelle’ d’éditeurs juridiques, de Legal Techs mais sans doute demain d’opérateurs venant directement du secteur informatique’ Elémentaire, dirait mon cher Watson d’IBM’. Des premières réalisations peuvent déjà être pointées, comme l’a rapporté Mr DONDERO Elles apportent, comme l’ont souligné mes collègues HUBIN et JACQUEMIN nombre de services : aide à la recherche, de conseils juridiques, et prévisions de l’issue d’un litige voire médiation. Ces services sont offerts y compris aux acteurs traditionnels du droit comme les cabinets d’avocats mais également directement aux citoyens ou aux entreprises, créant des risques à la fois d’ubérisation de la profession de conseil juridique mais également de non-respect de règles déontologiques propres à la profession d‘avocats

Ces réalisations viseront à coup sûr des domaines circonscrits et dits rentables et se mettront au service de ceux qui peuvent se payer l’accès à de tels services. Sans doute, peut-on craindre que cette « privatisation » de l’IA et de ses services ne discriminent les cabinets moyens et petits au détriment des gros cabinets qui offriront à leurs clients, des services de prédiction de l’issue d’un procès et de conseils ‘judicieux’, on l’espère, dans l’argumentation à suivre, appuyée par les références idoines. Peut-on lutter contre ces risques d’ubérisation et de discrimination ? Certainement pas en interdisant (quid par contre de la tarification de cet accès pour raison commerciale ?) l’exploitation de la base de données par des opérateurs privés ? L’Europe nous le reprocherait au nom de la sacro-sainte règle de la concurrence et de l’esprit de la directive sur la diffusion et l’exploitation des données du secteur public.

Certaines règles devraient s’appliquer alors à de tels services et l’exposé de HUBIN et JACQUEMIN les ont bien détaillés : règles de protection des consommateurs, en particulier l’obligation d’information de l’utilisation d’un produit IA, règles de responsabilité, application du RGPD, etc.  Faut-il en outre suivre la recommandation n° 20 du rapport français CADIET sur « la justice et l’Open Data ». Cette recommandation suggère la transparence des algorithmes utilisés par les concepteurs de systèmes et produits d’IA. Outre qu’elle risque de se heurter au droit de la propriété intellectuelle que ne manqueront pas d’invoquer les concepteurs, la recommandation soulève la question des limites de la transparence d’une IA dite forte qui développe (deep learning) de manière autonome les algorithmes de départ et devient ainsi une black box y compris pour ses propres concepteurs. Peut-être sur le modèle de ce qui existe en matière de réglementation de l’IA en matière de santé où un produit IA est considéré comme un dispositif médical devant faire l’objet d’une expérimentation, condition préalable à la reconnaissance d’une certification obligatoire, pourrait-on suggérer l’application de telles dispositions à ces dispositifs cette fois ‘juridiques’, en tout cas lorsque le résultat d’un produit IA est amené devant le juge

Venons-en au point essentiel. Cette privatisation de l’IA, peut-on lui opposer ou plutôt la compléter par un service public. Ce service public se fonde sur le principe de l’égalité des armes, un service d’accès à des outils d’IA qui pourrait être offert à tous et à chacun : cabinets d’avocats, entreprises, administrations et citoyens sans oublier nos tribunaux, doivent également pouvoir lutter à armes égales avec l’Intelligence des plaideurs, surtout lorsqu’elle est artificielle? En sa faveur, on plaidera également la nécessité selon la loi du changement d’une adaptation du service public de la justice à l’évolution de son contexte technique et socio-économique. Les discours souvent attendus autour de l’utilisation de l’IA par nos tribunaux se réfèrent également à l’intérêt général que représentent, d’une part, la sécurité juridique pour les citoyens et l’efficacité et l’efficience de nos tribunaux

Ces deux derniers arguments ont été écartés par certains de nos intervenants. La sécurité juridique – et nous reviendrons longuement sur ce point- n’est pas une vertu si elle signifie la perte de l’indépendance de nos magistrats (MOUGENOT) en empêchant une jurisprudence minoritaire dont de CODT a bien montré l’intérêt : souvenons vous de sa référence à la notion d’état de nécessité « inventée » par un juge gantois pour disqualifier l’infraction de vol de nourriture par un SDF. Quant à l’autre argument, avec la juge MESSIAEN, notons que l’efficacité de nos tribunaux aurait bon dos pour justifier la création d’un système d’IA auquel les magistrats devraient recourir à leurs côtés ou à leur place. L’intelligence du numérique a bien d’autres choses à offrir au service de cette efficacité (gestion des audiences, accès électronique aux greffes, e-deposit, etc.).

Retenons donc les autres arguments et sans faire de l’IA au sein des tribunaux une priorité, étudions son contenu. A cet égard, il paraît que le premier service IA doit concerner la possibilité d’une utilisation la plus intelligente possible de ce ‘Big Data, préalablement décrit . Il est indispensable d’avoir, nous l’avons déjà dit, un système intelligent d’interrogation de la base de données à défaut de quoi, le ‘Big Data’ risque d’être bien le big foutoir mais au-delà ?. Au-delà, faut-il développer un logiciel d’IA fort qui permette non seulement de repérer les décisions en la matière mais de les fouiller et de prédire ou d’aider à prédire les décisions  Certes, ce ou ces logiciels ne pourront couvrir l’ensemble des matières et des choix devront être opérés en fonction de la matière plus ou moins technique et du nombre de décisions.

A cet égard, les exposés ont permis d’identifier certains domaines déjà couverts ou potentiellement à couvrir. Le substitut LEROUX a indiqué combien des systèmes d’IA aidaient dès maintenant les juges, le parquet voire des auxiliaires à prévenir des crimes en identifiants de potentiels criminels, à décider des sanctions et à en suivre l’exécution. Le magistrat DE GRYSE a montré comment à propos de la fixation des montants d’obligations alimentaires, un système expert s’était progressivement implanté dans les tribunaux et avait été légitimé. D’autres exemples ont été évoqués en matière de fixation de la durée de préavis ou du montant de la réparation d’un dommage corporel. Il est intéressant de noter des produits logiciels évoqués sont des systèmes-expert et non des de véritable système d’intelligence artificielle. La distinction est essentielle (GERARD) dans la mesure où l’algorithme du premier est entièrement maîtrisé par son concepteur, alors que le ‘deep learning’ qui caractérise l’IA a pour conséquence de le rendre partiellement du moins ‘black box’ y compris pour son concepteur. Ce point est important en ce qui concerne la question de la transparence des algorithmes que nous aborderons infra.

L’ordinateur peut-il remplacer le juge. La question doit être posée en droit. L’article 6 de la CEDH (troisième droit de l’homme que nous invoquons) exige le ‘fair trial’ L’exposé de L.GERARD et D. MOUGENOT ont rappelé les multiples significations et exigences de cet article :indépendance et impartialité des juges ; égalité des armes et principe du contradictoire ; présomption d’innocence en matière pénale ; exigence de motivation ;   )  Sur tous ces points, le prononcé par le robot ne satisfait pas de telles exigences. Sans doute, pourrait-on le voir, ajoute MOUGENOT utiliser avec le consentement des parties dans une première phase du jugement : « Voilà ce que l’ordinateur propose comme décision » mais il ne peut s’agir d’un jugement au sens de l’article 6, tout au plus d’une décision avant dire droit à laquelle on pourrait reconnaître une certaine force exécutoire, sauf le droit des parties de réclamer un ‘vrai’ jugement. IL nous apparaît donc que les systèmes d’IA peuvent aider le juge mais non le remplacer. Tout n’est pas dit pour autant et deux points me semblent devoir encore être relevés.

La question de l’algorithme et de sa transparence se pose en effet différemment dans le cadre de l’utilisation par le juge que vis-à-vis d’une pure utilisation privée.  L’office du juge est en effet un service public dont chacun doit pouvoir connaître les règles de fonctionnement. A cet égard, la question des critères pris en charge de l’algorithme est délicate. Ainsi accordera-t-on plus de poids à un arrêt de la Cour de cassation, tiendra compte du nombre de décisions dans tel ou tel sens ou préférera-t-on des critères plus qualitatifs ? Quel poids accordera-t-on à la langue d’origine du jugement ? Comment s’opèrent les corrélations en particulier jusqu’où va-t-on dans la prise en compte des faits? LEWKOWSKY évoquait d’autres points : prendra-t-on en compte les jugements par défaut ? les jugements aberrants (mais qu’est-ce qu’un jugement aberrant ?)  A nouveau, on peut imaginer que l’Institut et moyennant les mêmes ouverture et discussion en particulier avec les ‘statisticiens’, éléments déjà mentionnés, puissent se prononcer en la matière. Comme en matière de dispositifs médicaux, on exigera que les logiciels soient l’objet d’expérimentations et que leur fonctionnement soit suivi par les magistrats avant d’être certifiés.

Le second point en appelle à la ‘prudence’ du juge face à cette ‘vérité’ ou proposition de ‘vérité sortie de l’ordinateur. Notre crainte est de voir insidieusement l’IA s’imposait comme norme au juge, par paresse peut-être mais surtout, parce que s’écarter de ce qui est présenté comme le résultat objectif et impartial de l’analyse de la jurisprudence, signifie prendre une responsabilité qui pourra facilement lui être reproché par la suite Supposons un juge qui décide de libérer un prisonnier contre l’avis de l’ordinateur, supposons que ce prisonnier libéré commette un méfait, ce méfait ne lui sera-t-il pas reproché ? Si le système de l’IA comme aide à la décision permet de cerner les arguments, de centrer le débat, il ne peut dispenser le juge de son travail de dire le droit.

Etrange idée que de voir la justice entre hommes prononcée par un ordinateur froid qui manipule des données, là où l’homme est un être de dialogue et que c’est précisément de ce dialogue que surgira tant chez l’avocat, qu’ensuite chez le magistrat, telle attention à tel détail, le relevé de tel fait qui permettra telle interprétation du droit au nom de la justice. La justice n’est pas répétition, elle est réponse à une interrogation d’hommes par des hommes, c’est la noblesse de votre profession, mesdames et messieurs Sans doute, et il est important de le souligner, dans nos systèmes, la loi est balise mais non carcan et votre justice n’est justice que si elle s’y accorde mais il existe là un espace de liberté que vous vous devez d’emprunter, à l’écoute de chaque affaire. Je voudrais faire ici l’apologie de la controverse jurisprudentielle qui éclaire la loi voire en réclame la modification. Que cette réflexion condamne le remplacement des juges par l’ordinateur, certes ; mais je vais plus loin, elle nous oblige à prendre nous tant avocats que magistrats nos distances par rapport à tout système qui verrait autre chose dans la ‘vérité’ sortie de l’ordinateur qu’une invitation à penser autrement. Je crains en effet que l’importance que nous pourrions donner à ce qui n’est jamais qu’un artifice de notre intelligence ne nous ou plutôt vous amène à suivre la loi d’une jurisprudence majoritaire, qu’au nom de la sécurité, elle ne dicte une pensée conservatrice, que de manière insidieuse, elle ne devienne norme, reprochant aux magistrats qui s’en écartent, d’avoir commis quelque imprudence voire quelque injustice.

Merci à ce débat de nous rappeler ce qu’est le droit, une création humaine pour les humains, toujours perfectible : le droit est un système récursif où le droit dit aujourd’hui par les tribunaux nourrit le droit déjà écrit. La justice ne se prédit pas, elle se découvre. Que les systèmes d’IA puissent aider à cette découverte, nous ne le nions pas à condition que nous puissions et surtout sachions (au sens être capable) en discuter les ‘vérités’. Responsabilité lourde et essentielle de nos facultés de droit, de nos formations, apprendre cette écoute et ce sens de l’analyse profonde des décisions. Car qu’est-ce que le Droit si ce n’est un texte qui s’interprète, un texte qui au hasard des faits soumis, par et grâce à eux, s’ouvre à mille interprétations…

 Ce qui constitue le droit c’est qu’il est réponse à l’infraction, à la rébellion, à l’écart à la norme et vous oblige comme avocat, comme juge mais également comme enseignant à lire et relire le texte, le lire ‘aux éclats’ comme disent les juifs à propos de l’interprétation de la Thora. Il s’agit de découvrir au terme d’un raisonnement rigoureux parfois poussé aux limites du raisonnable, un sens jusqu’alors caché… Par ailleurs, c’est dans cet espace jamais totalement fermé, toujours à ré-ouvrir que peut se cacher l’appel aux valeurs.

Enfin, en tant qu’enseignant, j’ai entendu l’appel de notre Ministre Koen GEENS. Il a insisté sur deux points. Apprendre à nos futurs avocats, magistrats, les vertus mais également les pièges du numérique. Il est indispensable- et nous l’avons fait mais encore insuffisamment à l’université de Namur, à comprendre le mode de raisonnement de nos ordinateurs, ses limites et ses mérites Par ailleurs, il a rappelé les vertus du juriste et ses conséquences pour notre enseignement.  Enseigner le droit, c’est éduquer l’étudiant au doute et à inscrire rigueur et valeurs dans sa recherche de la réponse du droit. Le droit est prudence, il incertitude au service des hommes mais cette incertitude n’est pas pur flou ; elle se mesure à l’aune d’une certitude, celle de textes réglementaires légalement adoptés et publiés. A l’inverse des lois informatiques jamais contestables parce que qu’écrites en mode binaire et non transparent, ces textes ouvrent comme, tout langage humain, des possibles et jamais n’enclosent complétement la décision. LEWKOWSKY citait à cet égard cette phrase de DWORKIN, soyez des romanciers à la chaîne

Sans doute, ce combat est-il plus difficile à mener mais s’il vous plaît, pour revenir à ma phrase d’entrée, vous avocats et magistrats, « pour répondre aux demandes de jugements qui vous sont adressés par des femmes et des hommes (et pas encore par des robots), ne poussez pas sur le bouton si vous voulez garder la maîtrise du droit !

 

 Yves Poullet

 

 

 

 

 

 

Une copie d’examen ne remplacera jamais le dialogue entre étudiant et professeur [1]

Le Règlement général sur la protection des données (RGPD) bouleverse nos habitudes dans tous les domaines. L’enseignement supérieur n’y fait évidemment pas exception, en particulier pour ce qui concerne le droit, pour l’étudiant, d’obtenir une copie de son examen, ou plus exactement une copie des données personnelles contenues dans son examen.

Jusqu’ici, le droit de copie d’examen était controversé au regard de la législation en matière de publicité administrative, dans le silence des règlements des études et des examens (REE). A partir du 25 mai 2018, ce droit s’imposera directement en vertu de l’article 15 du RGPD. En effet, depuis le récent arrêt Peter Nowak c. Data Protection Commissioner rendu par la Cour de justice de l’Union européenne le 20 décembre 2017, il ne fait plus aucun doute que les réponses écrites fournies par un candidat lors d’un examen professionnel et les éventuelles annotations de l’examinateur relatives à ces réponses constituent des données à caractère personnel (affaire C-434/16). Comme l’article 15 du RGPD prévoit désormais explicitement que la personne concernée est en droit d’obtenir une copie de ses données à caractère personnel, l’étudiant bénéficiera de ce droit en ce qui concerne les copies d’examens. Une législation pourrait faire exception en matière d’enseignement mais en respectant l’essence dudit droit et par une mesure nécessaire et proportionnée prise pour garantir la protection de l’étudiant, par exemple, au sens de l’article 23 du RGPD. Une telle législation n’est toutefois pas envisagée avant le mois de juin 2018.

Il s’imposait par conséquent de baliser le droit de copie d’examen, à défaut de pouvoir le faire dans le REE en cours d’année académique. Il s’agissait de mettre en œuvre ce droit mais aussi d’en montrer les limites car il comporte certaines obligations y compris dans le chef de l’étudiant.

Dans ces conditions, nous avons décidé, à la Faculté de droit de l’Université de Namur, d’autoriser provisoirement nos étudiants qui le demandent de prendre leur copie d’examen en photo ou photocopie lors des accès aux copies organisés sachant que

- seule la copie personnelle d’un étudiant peut être copiée de la sorte, à l’exclusion de toute autre ;

- une copie d’examen vierge ne peut pas être copiée ;

- il est interdit à l’étudiant de publier cette photo/photocopie sur les réseaux sociaux (et plus généralement sur le net) en raison de la présence de données personnelles à l’enseignant, matérialisées par ses corrections/appréciations protégées au même titre que les questions.

Nous insistons par ailleurs avec force sur l’importance pour l'étudiant de se rendre aux séances organisées pour consulter ses examens et d’en profiter pour dialoguer avec les professeurs et assistants disponibles de manière à comprendre ses erreurs et pouvoir progresser.

C’est que, plus fondamentalement, une copie d'examen ne remplacera jamais ce dialogue. La pédagogie du droit de copie impose de prévoir des modalités dans ce sens.

Marc Nihoul, Doyen de la Faculté de droit de l’UNamur

[1] « Le droit de copie d’examens à l’ère des technologies de l’information » est le titre d’une contribution publiée dans le livre d’hommage offert à Yves Poullet à l’occasion de son éméritat, intitulé Droit, normes et libertés dans le cybermonde (Bruxelles, Larcier, 2018, p. 199-222).

Pour une autorité de protection des données forte et efficace

Une carte blanche d’Elise Degrave. L’autorité de protection des données remplacera bientôt la Commission de la protection de la vie privée. De nombreux éléments doivent être clarifiés pour que cette institution jouisse de prérogatives fortes.