Conclusion du colloque "Intelligence artificielle, droit et souveraineté"

Mesdames, Messieurs,

Chers collègues,

Avant de clôturer ce colloque, je souhaite remercier tout particulièrement Monsieur Jacques BOULARD, Premier Président de la cour d’appel de Paris, pour son soutien dans l’organisation de ce colloque et en particulier pour la mise à disposition de la première chambre de la cour, salle historique et chargée de symboles. Ce soutien manifeste également son intérêt tout particulier pour les questions en lien avec l’intelligence artificielle et la souveraineté numérique.

L’intervention de Madame Emmanuelle WACHENHEIM, Secrétaire générale, au nom du Premier Président, souligne l’importance des défis qui se posent à notre société et en particulier à la justice, défis protéiformes qu’il faudra relever.

C’est une satisfaction de voir la Cour d’appel de Paris renouer avec une tradition d’ouverture pour débattre sur des questions de société. Après les confinements dus à l’épidémie de COVID qui ont contraint à réduire les activités dites-non essentielles et après les grands procès d’attentats terroristes qui ont occupé de nombreuses salles de ce Palais historique, ce colloque, avec d’autres, manifeste la volonté autant que le besoin indispensable de retrouver un espace d’échange.

Activités dites « non-essentielles » dit-on ? Certes du point de vue de l’essence même de l’activité judiciaire. Pourtant, nous savons combien il est indispensable pour le juge d’être en prise avec la société et de l’être en amont des éventuelles phases contentieuses.

Ainsi, il faut clôturer, ou plutôt de ponctuer un dialogue au long cours, en particulier s’agissant de sujets sociétaux aussi importants et complexe que l’intelligence artificielle. L’Institut PRESAJE, en partenariat avec la Cour d’appel de Paris, l’ENM et l’EFB, apporte, par ces débats, sa contribution aux réflexions sur un tel sujet concernant la construction du droit qui est au cœur de l’activité du juge.

C’est une immense force de permettre des débats pluridisciplinaires sur un sujet qui, désormais, nous touchent tous, que nous ayons ou non un appareil électronique à la main.

L’introduction par le Général de Rancourt est l’occasion de mesurer combien l’intelligence artificielle revêt une dimension stratégique dans notre société. C’est en effet bien à la fois un enjeu et un instrument de souveraineté. L’État est au cœur de cette double problématique. Le Parlement définit le cadre juridique et les moyens de la Défense nationale, le gouvernement met en œuvre une politique dédiée à la défense de notre souveraineté.

Pour satisfaire à la relation triangulaire de la séparation des pouvoirs, l’intervention du juge participe de la souveraineté pour appliquer et interpréter la loi afin de garantir l’État de droit.

La complémentarité des interventions de cet après-midi démontre la transversalité d’un sujet en pleine effervescence (1) qui nous appelle à appréhender l’IA par-delà les frontières (2) afin de maîtriser son impact sur la justice (3) et ce faisant, de préserver le rôle essentiel du juge pour les libertés individuelles.

 

L’IA est un concept effervescent.

Alors que le temps judiciaire semble s’étirer par la complexité des procédures ou la densité des argumentations qu’il suscite à l’occasion de sa mise en œuvre, les algorithmes provoquent une compression sidérante du temps.

L’effervescence des réflexions sur l’impact de l’IA fait écho au rythme spectaculaire de l’évolution de l’IA. Beaucoup de chemin a été parcouru alors même qu’en 2019, tout juste hier, on s’interrogeait sur l’opportunité même d’envisager une réglementation à l’échelle nationale, européenne ou internationale. Cette question n’est plus d’actualité. En revanche, les réponses à la question des principes et des modalités d’une telle réglementation ne sont pas stabilisées. Nous observons au contraire une effervescence normative dont on ne mesure pas encore tout à fait la portée.

Comment expliquer ces incertitudes ?

Face à une technologie qui accumule les ruptures, les disruptions diraient certains, proposer une régulation ambitieuse est un pari risqué. Il nous confronte à une alternative diabolique : réguler trop vite trop fort et ce faisant, brider nos capacités nationales et européennes à ambitionner d’être des acteurs mondiaux ou réguler timidement et ce faisant, laisser le champ libre aux prédateurs de nos démocraties et de nos libertés.

Alors que se négocie toujours le projet de Règlement sur l’IA présenté par la Commission européenne en 2021[1], la définition même de l’IA demeure en suspens au même titre que l’approche choisie pour organiser cette régulation.

Ainsi, les réflexions philosophiques et les travaux préparatoires interrogeant le sens et la définition de l’IA, sont menacés par une obsolescence rapide. En effet, l’évolution du périmètre de cette notion semble évoluer plus vite que notre capacité à adapter cette définition. On peut prendre pour exemple l’évolution des approches entre la proposition de la Commission en 2021, l’approche commune du Conseil de l’UE en décembre 2022 et les amendements présentés par le Parlement en juin 2023, amendements tenant compte de l’évolution de la définition de l’IA proposée par l’OCDE au début de cette année.

Ces différences d’approches, somme toute classiques dans le fonctionnement des institutions européennes, semblent ici profondément affectées par le développement de l’intelligence artificielle générative, des modèles de très large langage (LLM), sous la dénomination vernaculaire de Chat GPT - dont le nom est à l’IA ce que Scotch est au ruban adhésif.

Ce n’est d’ailleurs pas tant l’évolution de la technologie qui importe ici que sa dissémination universelle et quasi instantanée. La mise à disposition en source ouverte, libre de droit et gratuite, de cet « algorithme » lui a permis d’envahir des pans entiers de la société, que ce soit les plus jeunes d’entre nous, par exemple pour la rédaction de « devoirs scolaires » ou pour des professionnels aguerris du droit, afin d’accélérer sinon d’augmenter leur production.

Les différentes conceptions qui se confrontent dans le cadre des trilogues sont le reflet des débats essentiels dont l’issue et la portée sont bien incertains.

En effet, c’est le paradoxe du droit moderne de peiner à définir son objet et de vouloir prescrire pour le futur des principes que l’on voudrait voir transcender nos frontières. Or, sans définition, il n’est point de droit.

Cette effervescence est encore symbolisée par la proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle dite « Directive sur la responsabilité en matière d’IA » présentée en septembre 2022. Cet instrument propose, notamment, l’introduction d’un mécanisme de présomption. Cette directive aura un impact certain sur le contentieux de la responsabilité dans la mise en œuvre des objets connectés, notamment nos véhicules de plus en plus autonomes, ou encore dans la mise en œuvre de systèmes d’aide à la décision.

Il y a donc bien un double défi : permettre au juge de répondre à l’évolution du droit et des outils susceptibles d’être mis à sa disposition pour statuer.

 

A travers le droit, le juge droit penser la souveraineté par-delà les frontières.

La souveraineté s’exprime vis-à-vis de l’intérieur et vis-à-vis de l’extérieur. Elle incarne depuis le 16ème siècle et les écrits de Jean BODIN, la «puissance absolue et perpétuelle» de l'État, c’est-à-dire de la Nation organisée. La souveraineté est un concept complexe, en particulier pour un Etat fondateur de l’Union européenne. La souveraineté y est même différenciée par l’effet des transferts de compétences. Elle est également différenciée par la capacité d’acteurs privés, d’entreprises mondialisées à concurrencer les Etats dans leurs activités régaliennes – notamment la Défense, la Santé ou encore l’Education, et surtout, ce qui nous préoccupe, le droit et la Justice.

Ces acteurs privés concurrencent le droit en imposant des normes techniques, notamment par la soft law ou les règles internes de régulation, de « compliance ». Ils concurrencent la justice en créant des mécanismes de régulation interne – par exemple, la pseudo « Cour Suprême » de Méta, société mère de Facebook.

Ainsi, dans le cyberespace, ces grandes entreprises tout comme des opérateurs criminels, défient l’État. Nous en avons été témoins avec des attaques cyber contre des hôpitaux. Dans certains cas, ces acteurs peuvent menacer la démocratie. Les exemples ne manquent pas et ont justifié le développement de moyens de défense offensifs.

Au sein de nos démocraties européennes, quels projets l’IA peut-elle nous aider à porter ? Une société plus juste, plus égalitaire, plus respectueuse des droits ? On peut alors craindre que sans maîtrise technologique, il est illusoire de prétendre à une souveraineté totale.

Dans le seul domaine de la Justice, nous parlions en 2016 de justice prédictive. Terme inapproprié mais qui satisfaisait au désir de doubler le juge en prévoyant sa décision avant même qu’elle ne soit rendue.

Nous parlons aujourd’hui de « systèmes décisionnels » ou de « systèmes d’aide à la décision » dont la diversité s’étend à l’infini si l’on nuance l’intensité de l’implication de l’homme dans le processus. Cela implique de préserver la capacité du juge à orienter la construction du droit.

Au regard de la préservation de la souveraineté, il s’agit de savoir si le droit doit procéder de la réalité pratique ou avoir pour ambition de prédéterminer cette réalité. Cela s’inscrit dans le rapport entre l’Union Européenne, c’est-à-dire les industriels des Etats Membres, et ceux des Etats-Unis et de la Chine.

On peut se demander si l’avance prise par les géants du web de ces deux derniers pays, qui dominent clairement le monde de l’IA et imposent leurs règles, n’est pas de nature à conférer un atout sur l’industrie européenne et de conforter cet avantage lorsque nous entendons définir des normes qui brident plus qu’elles ne libèrent, qui confèrent des droits aux citoyens sans garantir leur effectivité vis-à-vis d’opérateurs mondiaux.

Notre souveraineté est mise au défi de la maîtrise des infrastructures dont nous dépendons. Elle est également mise au défi du contrôle absolu de nos données même lorsqu’elles sont susceptibles d’être hébergées à l’étranger. Ces défis plaident pour la constitution d’un « cloud souverain » pour la justice compte tenu de la sensibilité particulière des données individuelles que nous traitons.

 

L’IA questionne la Justice

Le principe découlant du Digital Service Act selon lequel les individus doivent avoir les mêmes droits dans le cyberespace que dans le monde « réel » appellera le juge à appréhender des mécanismes juridiques complexes afin de garantir une indispensable hiérarchie des normes et l’effectivité des principes fondamentaux.

Le défi de l’IA au regard de notre souveraineté induit de préserver la part d’humanité nécessaire à la prise de décision lorsqu’elle touche à l’humain, disons au citoyen, alors que celui-ci est entraîné – voire conditionné - par la robotisation des rapports sociétaux. C’est le cas sur les réseaux sociaux, c’est le cas sur le plan du rapport clients / fournisseurs, c’est désormais de plus en plus le cas dans les rapports entre l’usager et l’administration.

Le juge doit s’adapter car, il existe un risque sérieux qu’il soit concurrencé par des opérateurs privés laissant entendre qu’ils peuvent produire plus rapidement des « jugements » plus fiables parce que dépouillés de l’arbitraire humain. Ces acteurs planétaires tendent à faire valoir leurs règles, leurs « principes moraux » avec des conséquences majeures sur des libertés fondamentales telles que la liberté d’expression.

Face à cette promesse fondamentalement mercantile, il nous appartient de caractériser et de défendre la nécessité d’une intervention du juge essentielle pour rendre une décision indépendante, impartiale et éthique. A cet égard, il faudra sans doute également expliquer l’importance de cette intervention. Or, le juge devra, de plus en plus, travailler avec le support de l’IA. Il faudra alors déterminer, individuellement et collectivement, la part nécessaire de libre arbitre et d’autonomie du juge qui pourra – qui devra probablement - prévaloir sur l’IA.

Il faut naturellement prendre garde à ces évolutions. Ainsi, il est indispensable de donner au juge les moyens d’être un acteur souverain des libertés individuelles, en particulier lorsqu’il s’agit de concilier les principes fondamentaux. Cette conciliation, par exemple la mise en œuvre du principe de proportionnalité, implique d’une part que le juge puisse se focaliser sur son office, trancher en droit entre des intérêts divergents, et qu’il puisse relever le défi de la concurrence d’une « justice privée ».

Or, il semble bien qu’il ne pourra le faire qu’en étant en mesure de s’approprier les bienfaits de la technologie en la subsumant à l’essence de son office.

Cette perspective ouvre également un nouveau champ de la responsabilité du juge, celui du bon usage de l’IA.

 

Le juge restera-t-il un acteur de souveraineté

En abordant cette question, on mesure combien il s’agit moins de conclure ce colloque que d’en faire un pont vers le futur. En effet, il existe plusieurs risques dans la mise en œuvre de l’IA dans le domaine du droit.

Il existe bien sûr un risque de détournement des données personnelles du fait de leur traitement selon des schémas ayant une dimension extraterritoriale.

Il existe également un risque d’usage clandestin ou artisanal de l’intelligence artificielle qui porterait atteinte au droit à un tribunal impartial et indépendant. En effet, ce principe essentiel énoncé à l’article 6 de la Convention européenne de sauvegarde des droits de l’Homme induit un cheminement éthique, c’est-à-dire la capacité du juge à articuler le juste et le bien-fondé, à guider la construction raisonnée d’une décision et non point le résultat d’un produit statistique clandestin.

C’est là un cheminement bien singulier synonyme de la responsabilité qui signifie tout à la fois pouvoir répondre de la décision, notamment par la motivation, d’être garant de l’intégrité ontologique de la décision découlant d’un processus contradictoire et qui est le sceau de la capacité, investit de l’autorité de l’État, de rendre une décision. Cette responsabilité est étrangère au processus d’une justice algorithmique privée.

 

                                             *       *       *

 

Hier (30 novembre 2023), Benoit Sagot prononçait sa leçon inaugurale au Collège de France sur le sujet « Apprendre les langues aux machines ». Celui-ci soulignait récemment que la frontière entre ingénierie et recherche se déplace vite. Autrement dit, le temps de la science et de la technologie se comprime. Ce constat confirme que la technologie est en capacité de dicter la loi au législateur quand le législateur en est encore à essayer de comprendre la technologie et ses incidences sur les rapports sociétaux.

C’est un défi pour le juge. C’est un défi pour nous tous de préserver l’attractivité du juge sur un sujet aussi complexe et aux enjeux majeurs. L’innovation prétorienne dans la construction du droit est possible comme le démontre le succès de la Chambre commerciale internationale créée en 2018 au sein de la cour d’appel de Paris.  Il s’agit de mettre en œuvre notre intelligence situationnelle humaine pour inventer des solutions qui répondent aux attentes des institutions, ainsi qu’à celles de nos concitoyens.

Il importe donc de continuer à nourrir ce dialogue essentiel afin de permettre à chacun, aux professionnels du droit, au juge en particulier de maîtriser les évolutions dont nous sommes tous témoins afin de conserver, au travers de la justice, la souveraineté de notre modèle d’État de droit.



Le règlement sur l’intelligence artificielle a été formellement adopté en mars 2024 par le Parlement européen. Ce texte fait l’objet d’une vérification finale par un juriste-linguiste et devrait être adopté officiellement d’ici l’été 2024.

Institut PRESAJE - 30 rue Claude Lorrain 75016 Paris
E-mail : contact@institut-presaje.com
Association loi de 1901