Intervention 6 : Reconstruire juridiquement la souveraineté ou subir la loi de l'intelligence artificielle

par Dr. Sabine Van Haecke-Lepic

 

C’est une grande joie pour moi et un honneur d’intervenir à ce colloque "Intelligence artificielle, droit et souveraineté". Je remercie Arnaud Billion pour sa confiance ainsi que Thomas Cassuto et l'Institut Présaje.

" Reconstruire juridiquement la souveraineté ou subir la loi de l'intelligence artificielle" pourrait être un nouvel impératif pour le Droit auquel je crois. En effet, depuis le milieu des années 2000 avec l’intelligence artificielle un nouvel embranchement octroie une nouvelle fonction à la technologie, une nouvelle mission qui est celle ni plus moins d’expertiser le réel. Ainsi reconstruire juridiquement la souveraineté à l’ère du numérique sous-entend peut-être de s’interroger sur le rôle du droit et sur son pouvoir de garantir encore à la fois notre souveraineté et assurer l’esprit d'une société de justice en ne renonçant pas au pouvoir d'interpréter et de contester l'ordre apparent, établi dans les interstices du code et de la loi. Il s’agit aussi de bien choisir l’architecture afin d’en comprendre la nouvelle réalité et son impact sur le droit. En effet, le code à la vitesse de l’éclair se meut et se déploie à la fois dans les couches basses mais aussi dans l’ensemble des infrastructures en diluant progressivement son origine et ainsi et surtout en échappant à toute tentative d’établir la chaîne des responsabilités.

L’intelligence artificielle marque aussi comme le souligne Marine Teller1, le passage de l’économie de l’information à une économie de l’attention, marquée par l’automatisation des consentements, dans ce qui ne serait plus qu’une « servitude volontaire ». On voit ainsi une emprise progressive des fonctions du droit remplacés par des soi-disant équivalents par la tech.

Aussi comme l’exprime Eric Sadin on assiste au tournant injonctif de la technologie qui prédétermine telle une machine à gouverner nos libertés d’agir, d’interpréter, de contester… Ce code qui encourage d’adopter telles actions plutôt que telles autres.

Ce code qui suggère de prendre telle itinéraire plutôt que telle autre… Ce code qui prescrit, qui oblige, qui suggère, qui incite….nous fait passer d’un monde de la prédiction au monde de la prescription.

A l’aune de ce constat, cette nouvelle technologie atypique questionne ainsi notre État de Droit et aussi l’état du Droit….et plus encore à la fois notre humanité. Cette intelligence artificielle remet en cause nos institutions et plus encore notre souveraineté étatique mais aussi notre propre souveraineté d’humain c’est à dire notre intégrité et notre représentabilité sensible. Le sujet s’effaçant au profit de sa réplique numérique.

Ainsi imposons à notre esprit un détour selon l’expression même de Jacqueline de Romilly déplaçons nos questions de maintenant au contexte de la guerre de Troie.

En effet, dans “La guerre de Troie n’aura pas lieu”, Jean Giraudoux opèrerait une parfaite illustration du thème qui nous réunit aujourd’hui notamment sur la recherche de la voie du réalisme juridique à l’aune de l’intelligence artificielle et de la revalorisation de la vraie puissance créatrice du droit grâce notamment à la qualification juridique et à son interprétation au contexte. Hector, fils du roi Priam entend prévenir toute source de frictions entre les troyens et les grecs, recourt ainsi à Busiris de Syracuse, présenté comme “le plus grand expert vivant du droit des peuples”.

Celui-ci vient, à la demande du Sénat, de recenser trois manquements aux règles internationales, commis par la flotte grecque lors de son arrivée à Troie. En se rendant coupable de trois violations du droit international, la conclusion suivante devrait tomber : la Guerre de Troie doit avoir lieu.

C’est ce que dirait notre machine en tous les cas car c’est ce que dit la loi. Mais c’est sans compter avec la malice d’Hector qui s’adresse à Busiris dans les termes suivants : “Mon cher Busiris, nous savons tous ici que le droit est la plus puissante des écoles de l’imagination. Jamais poète n’a interprété la nature aussi librement qu’un juriste la réalité”.

Pourtant, Busiris est ainsi amené à soutenir la thèse contraire et à réinterpréter les faits. Ainsi for de ce récit, on voit ici la puissance d’un droit stratégique et ouvert à l’interprétation et au besoin de la compréhension du contexte.

Quelle serait alors la vocation du juriste à l’aune de l’intelligence artificielle ? Est-il en train de venir un exécutant de la machine et subir ainsi l’intelligence artificielle ?

L’intelligence artificielle nous donne l’opportunité de nous poser cette question? Peut-elle ainsi revaloriser la démarche juridique et sa souveraineté ?

N’est-elle pas en train d’interroger aussi l’ensemble des métiers mais plus encore elle pose la question de notre humanité même, de notre souveraineté même ?

La loi essence du droit, et pièce essentielle de la mécanique du droit doit s’appliquer si les faits sont en adéquation avec le droit.

Mais pour l’avocat son art n’est il pas parfois d’essayer d’échapper à la loi ? d’échapper à la pré- détermination du code loi ?

N’est-ce pas la vocation du magistrat de mettre un espace entre la loi et sa décision… c’est dans cet « entre » qu’est féconder le droit, et qui peut faire décision de justice.

La discussion, le débat, la rhétorique, l’interprétation sont autant d’instruments qui lui permettent de forcer et de comprendre le sens du texte, ce sont les interstices du droit.

C’est ce qui caractérise le droit et sa stratégie du contentieux comme l’a déjà souligné Xavier Vuitton : se battre, négocier ou abandonner… abandonner à la machine notre cher Droit ? Et si le Droit avait la tentation de devenir machine exécutante ?

La formation du droit pour l’exécution du droit : une machine à gouverner servi par une pensée calculante comme l’a conceptualisé Heidegger où les algorithmes seraient au pouvoir ? 

« Si les lois se muent en algorithmes se débarrassant une fois pour toutes de

l’intermédiation parlementaire ce que décideront les citoyens sera directement et irréversiblement inscrit dans le dur des circuits des microprocesseurs informatiques formatant partiellement nos existences2. »

 

Un pouvoir irréversible de la machine ?

Les juristes pour rétablir une certaine souveraineté juridique n’auraient-ils pas pour vocation de penser la loi et pourquoi pas de l’éviter ou encore de promouvoir à l’instar de la pensée de François Jullien de dé-coïncider, de dé-programmer la loi et son application pour faire œuvre de jurisprudence ?

François Jullien entend montrer que certains concepts, trop confiants dans leur généralité, sont creux. Le droit en lui-même et pour lui-même sonne bien souvent creux lorsqu’il fait le lit de la machine par complicité, par arrangement, par calcul….le droit est-il d’ores et déjà en pensée calculante et pourtant le Droit n’est-il pas l’étude des écarts fissurant ces généralités, ces concepts fermés similaires à un programme informatique…

Ainsi, parmi les concepts qu'il construit lui-même, émerge celui de l’« entre ». Entre deux données, entre deux langues, entre deux cultures, entre deux droits …

A ce titre et dans le prolongement de cette pensée la question de l'intelligence artificielle au sein du système juridique nous donne l'occasion de mener une enquête sur la capacité du droit à absorber ce nouvel entrant injonctif sans remettre en cause son essence.

Ce qui se joue sous cette enquête c'est la question de la transposition des modes de raisonnement humain et des modes de raisonnement machine pour rendre la justice mais pas que …. En effet, au-delà du raisonnement c’est la question du fondement même du droit.

L’étude du droit et de sa méthodologie notamment le syllogisme judiciaire, le si alors peut être transposé dans la machine et plus encore au sein du code avec le fameux « if then » C’est ainsi que la tendance à un droit simplement technico-juridique, un droit de standards pour soutenir l’essor de la tech, qui s’apparente à une fusion de positionnement.

Cette tendance a pu donner à croire que le droit pouvait être remplacé par la machine tant la programmation semblait possible, tant la machine interagissait en huis clos dans son enfermement comme le droit, comme l’illusion de certains pour le droit.

Mais ne parle-t-on pas en effet de stratégie du procès et de programme informatique, ne sent-on pas d’ores et déjà les premiers indices de ce que pourrait être l’école de droit réaliste à l’heure du numérique et pour lesquels certains se mobilisent d’ores et déjà pour préserver l’équilibre des pouvoirs et surtout pour préserver nos libertés.

Alors que les non-juristes déifiaient ainsi ce droit qui pouvait si facilement by design s’implémenter dans la machine, il est de notre responsabilité de reconstruire une certaine souveraineté, loin d’un droit de standards…Il s’agit de combattre une formule complète pour la tech et aussi pour le droit avec une intelligence artificielle qui en étant à la fois prédictive et prescriptive borne le droit dans un système fermé, en effet basée sur des données du passé qui produirait une machine en marche complète pour adresser tous les sujets du droit et les appliquer tel quel.

Le droit, les juristes l’ont rêvé, la tech avec notamment l’intelligence artificielle sont en train de l’instrumentaliser, perdant ainsi sa souveraineté, peut-être même la réalité de son pouvoir, mais plus encore sa vocation même, d’être paradoxalement peut-être pour certains la fille de notre liberté.

Est-ce la fin du droit comme Fukuyama avait parlé de la fin de l’histoire ? L’applicabilité de la loi tel quel au cas présenté…une coïncidence ?… non une pré-détermination…un droit, une sorte de nouveau contrat complet et fermé mais surtout une automatisation privative, un nouveau smart contract de gouvernance. Mais alors la question de cette nouvelle perspective et l’essor actuel de cette intelligence artificielle n’est-elle pas le moment idéal pour s’interroger sur l’essence même du droit ? Pour un droit avec une formule complète ou incomplète ? Un droit pré-déterminé pour une formule de programmation informatique avec des données du passé ? Quelle serait alors la promesse de l’intelligence artificielle ? N’y a-t-il pas un risque de cheval de Troyes dans le système ?

Il s’agirait de changer la manière dont les décisions judiciaires sont prises au moyen d'une technologie spécifique appelée « apprentissage automatique » qui fait des prédictions en évaluant des dossiers avec les décisions judiciaires qui y sont associées.

Cet ensemble de données, connu sous le nom de données de formation, est analysé pour établir des corrélations statistiques entre les affaires et les décisions judiciaires associées. Ainsi, plus l'algorithme traite des données, plus il est précis dans la prédiction de décisions liées à une nouvelle affaire.

Ces systèmes « apprennent » au moyen d’un calcul statistique à reproduire les décisions que les juges ont prises dans des affaires similaires.

Cette IA atypique n’est pas un outil technologique standard qui numérise l'échange de données et de documents, en effet cette technologie de « justice prédictive »a le pouvoir d’influencer directement la prise de décision judiciaire.

Est-ce que cette justice prédictive contribuera à de meilleures décisions ? De simples erreurs de calcul dans des formulaires dans les affaires de divorce pourraient entraîner le mauvais calcul des pensions alimentaires.

Le problème n'est pas l'erreur en soi, mais le temps de sa détection et de sa possible contestabilité. Et à travers cette contestabilité ce n’est pas le résultat qui doit nous interroger mais c’est savoir si nous avons la main pour savoir comment les systèmes analysent toutes ces données en interne.

Ainsi le recours à l’intelligence artificielle pour traiter la masse de données relatives aux affaires vise à accroître la transparence, alors que pourtant l’architecture système même n’est pas en elle-même transparente. Par conséquent, il se pose la question générale de savoir quelles sont les possibilités de déployer des contrôles efficaces sur le fonctionnement interne des traitements informatiques et sur les algorithmes qui traitent les données et quelle en seraient alors la contrepartie humaine nécessaire ? Cela soulève une autre question : comment garantir un contrôle ainsi qu'une responsabilisation appropriée sur le fonctionnement de la technologie et l'IA (et plus précisément l'apprentissage automatique)

 

Comment ainsi rendre des comptes ?

Aux États-Unis par exemple, il existe une technologie qui conseille la prise de décisions en matière de détention provisoire. Ces applications utilisent des algorithmes qui calculent les risques de récidive, puis « notent » la personne mise en cause en fonction de la probabilité qu'il ou elle commette une infraction en cas de libération.

Ce type de notation place les juges dans une position délicate.

Supposons qu'il y ait un cas où le ou la juge veuille en conscience libérer la personne en détention provisoire, mais que le score indique un risque élevé de récidive.

Le magistrat serait-il prêt à aller à l'encontre du calcul de l'évaluation des risques effectué par la machine ? Et que se passe-t-il si la personne est libérée et commet ensuite une infraction ?

Ces systèmes ne font pas que traiter les données disponibles. Il semble que les méthodes scientifiques employées calculent les risques de récidive d'une manière plus fiable que les juges.

Cet argument est pertinent, mais comment pouvons-nous garantir que les données ne sont pas biaisées ?

Dans la justice, dans l’hôpital, bref dans notre système institutionnel il semble que ce système injonctif se déploie.

Des voix et des vérités qui nous parlent avec le bon chemin à emprunter ? Des voix et des vérités qui parlent aux magistrats et aux avocats…

Des systèmes parlent à notre place…

Des systèmes qui parlent en notre nom….

Ainsi, cette nouvelle mission de l’intelligence artificielle expert de nos vies, soutenu par le monde industriel promeut une meilleure organisation sociale, économique, juridique… Cette doxa puissante et unilatérale est en marche.

Reconstruire juridiquement notre souveraineté juridique consiste à l’instar de Jean Carbonnier dans la profondeur de sa pensée de redonner toute sa place à la notion de vide possible juridique, argument qui pousse alors en lame de fond la notion même d’incomplétude pour embrasser le droit même, qui prône ainsi la flexibilité du droit…avec sa sociologie du droit, il nous donne à réfléchir à un droit in situ, un droit en contexte, pas forcément un droit d’exception mais un droit dans la dynamique d’un contexte et donc d’une stratégie du contentieux en fonction des faits, un droit ouvert.

C’est davantage la question de la dynamique de la justice et de ses principes inhérents sur l’interprétation des concepts à la lumière du contexte.

Le juriste en effet, telle un phénoménologue se cogne à la loi et aux faits pour faire émerger le droit juste et adapté.

Ainsi, cette prise de conscience de ce qu’est le droit se doit d’être incorporé dans une stratégie de droit international, car il faut comprendre que potentiellement la machine qui fixe des mots, des ordres est une machine intégrative.

Cette prise de conscience de ce qui se joue, nous force ainsi, à maitriser une compréhension globale de l’ensemble de la machine qui peut se décaler et qui fait rétroagir l’ensemble de notre système institutionnel et la compréhension globale et déterminante de leur hébergement, question éminemment cruciale.

C’est pour cette raison et ce sera mon dernier point il s’agit de comprendre les enjeux géopolitiques pour reconstruire notre souveraineté nationale et européenne.

Aujourd’hui, la science cybernétique joue sa partie hors frontières et la souveraineté nationale est bousculée par le numérique, car le territoire est traversé d’influences diverses. IA est vous l’avez compris un cheval de Troyes pour s’introduire dans nos systèmes institutionnels…dans nos vies.

Pour reconstruire juridiquement le droit, il s’agit donc de mettre en place des mécanismes de contrôle efficaces pour garantir une responsabilisation appropriée et un ancrage stratégique en tentant possiblement de déjouer les monopoles en les rendant obsolètes. Le débat est en cours et le principe de précaution devrait être suivi jusqu'à ce que ces questions aient été résolues d'un point de vue technique et institutionnel.

 

Est-ce possible ?

Les mises en garde et le principe de précaution vont dans le même sens que la Charte éthique européenne d'utilisation de l'intelligence artificielle dans les systèmes judiciaires, notamment en ce qui concerne les principes de respect des droits fondamentaux et de maîtrise par l'utilisateur ou l'utilisatrice.

Mon propos tend à démontrer qu'il est difficile de responsabiliser ces systèmes dans les processus judiciaires. Le problème de la responsabilité est encore plus grave en ce qui concerne les systèmes d'IA basés sur l'apprentissage automatique.

En effet, dans ce cas, la prédiction est basée sur des algorithmes qui changent au fil du temps. Avec l'apprentissage automatique, les algorithmes « apprennent » (changent) en fonction de leur propre expérience. Etant donné que les algorithmes changent, est-il possible de savoir comment ils fonctionnent et pourquoi ont-ils alors adopter une certaine approche ?

Le défi qui doit être relevé est de mettre en commun des compétences multiples et d’acculturer pour pouvoir être à même de surveiller le fonctionnement des systèmes d’intelligence artificielle avec parallèlement comme fil rouge de tenter de faire respecter les valeurs fondamentales des Principes de Bangalore sur la déontologie judiciaire.

Enfin la question de la formation est majeure et de l’acculturation…pour relever le défi et pour pouvoir loin de l’accompagnement spectral retrouvé un réalisme juridique et politique en marche et dynamique pour éprouver ce nouvel entrant et retrouver notre pleine capacité humaine, notre pleine souveraineté et ainsi notre liberté.

Je voudrais terminer par cette phrase qui résonne particulièrement ici au sein de cette première chambre de la Cour d’Appel.

Il y a des heures où la volonté de quelques hommes libres brise le déterminisme et ouvre de nouvelles voies : on a le destin qu’on mérite. Charles DE GAULLE.

 

Notes et références

  1. Marina Teller, L’intelligence artificielle in Le Droit Economique au XXI°, Notions et Enjeux sous la direction de Jean-Baptiste Racine
  2. Bersini, Hugues, « Regard d’un informaticien sur la crise du coronavirus : vite les algorithmes au pouvoir ! »

 

Institut PRESAJE - 30 rue Claude Lorrain 75016 Paris
E-mail : contact@institut-presaje.com
Association loi de 1901