Propos Introductif : L’IA au cœur des nouveaux équilibres de puissance et facteur de puissance elle-même

Par le Général d’armée aérienne Luc de Rancourt, Inspecteur général des Armées – Air et Espace

En février 2020, devant les stagiaires de la 27ème promotion de l’école de guerre, le président Macron prononçait un discours sur la stratégie de défense. Il identifiait trois ruptures majeures de notre temps : une rupture stratégique, une rupture politique et juridique et enfin une rupture technologique. L’intelligence artificielle se retrouve au cœur de chacune d’entre elles .

De la technologie, le PR précisait qu’elle est, à la fois un enjeu, un perturbateur et un arbitre des équilibres stratégiques. L’histoire est en effet émaillée d’avancées soudaines qui, se diffusant plus ou moins vite, ont bouleversé la distribution même de la puissance dans le monde. Le potentiel disruptif de l’intelligence artificielle est, par son ubiquité et la rapidité de son expansion, je crois, bien supérieur à celui de l’avènement de l’imprimerie qui avait permis la diffusion d’idées qui furent indirectement à la source des guerres meurtrières du 16ième et 17ième siècle. Il n’est qu’à voir la vitesse à laquelle Chat GPT a atteint en tout juste deux mois les 100 millions d’abonnés.

L’IA se nourrit de la numérisation de nos sociétés. Elle se caractérise par un volume considérable de données, des algorithmes toujours plus performants et des puissances de calcul exponentielles, fruit d’une loi de Moore qui n’a toujours pas atteint son asymptote. La conjugaison de ces trois caractéristiques est porteuse d’une puissance transformationnelle inédite, propre à bouleverser nos modes de production et nos organisations. En effet, la valorisation et surtout la corrélation de ces données entre elles est aujourd’hui rendue possible à très grande échelle. Cette dynamique contribue à faire émerger la face cachée d’une réalité qui nous échappait jusqu’à présent et, en retour, nous permet de pouvoir agir sur elle.

Si l’on considère maintenant le plan politique et juridique, le développement vertigineux de l’IA, notamment l’IA générative, inquiète même si l’on ne sait pas encore en mesurer vraiment les effets. Certains y voient jusqu’à une menace pour l’humanité tout entière, quand d’autres y voient au contraire une opportunité extraordinaire. Ainsi, l’an dernier 37 pays ont adopté des réglementations concernant l’IA.

La nécessité d’une approche plus globale se fait en même temps jour. En témoigne la tenue du 1er sommet international sur la sécurité de l’intelligence artificielle de Londres les 1er et 2 novembre dernier et l’adoption de la déclaration de Bletchley signée par 28 pays et organisations internationales dont l’UE.

Toutefois, les diplomates, les responsables politiques et les chercheurs eux-mêmes peinent à en anticiper les enjeux et à s’accorder sur le degré et le niveau de régulation nécessaire. Ceci d’autant plus que, sur fond de crise du multilatéralisme, nous assistons à un mouvement de déconstruction des normes internationales qui s’inscrit dans une logique assumée de compétition, où seule primerait la loi du plus fort.

Ainsi, sur le plan stratégique, une nouvelle hiérarchie des puissances se dessine. Elle est porteuse pour l’avenir de risques d’incidents et d’escalades militaires non maîtrisées. L’IA est aussi à ce titre un enjeu de puissance. D’abord parce que notre autonomie stratégique, pour ne pas dire notre souveraineté, dépend également de la maitrise de la chaîne de valeur sur laquelle elle se fonde : ressources matérielles, industrielles, logicielles, intellectuelles. Une hiérarchie mondiale de la puissance IA s’est établie avec au sommet deux superpuissances qui se font face : les USA et la Chine.

L’IA est un enjeu de puissance également parce qu’elle conduit à une transformation profonde et rapide de ses modalités d’expression dans ses dimensions classiques, à commencer par la dimension militaire. On peut pronostiquer, sans crainte de trop se tromper, que l’IA sera un facteur clé de la sécurité à très court terme, pour certains d’ici 5 ans. Et l’on peut même légitimement se demander si elle ne conduira pas à un changement de nature de la guerre.

 

L’IA comme moyen d’acquisition de la supériorité opérationnelle

A tout le moins, si aujourd’hui elle n’en transforme pas encore la nature, incontestablement l’IA en transforme déjà la conduite. Elle représente dès à présent un facteur décisif de supériorité opérationnelle pour les armées.

Par le nouveau mode de traitement des données qui conjugue rapidité d’exploitation et analyse croisée massive, elle permettra au stratège et au chef militaire, non seulement de mieux appréhender la complexité de l’environnement dans lequel il devra manœuvrer, mais en plus, d’accroître les champs cognitifs vers lesquels sa pensée stratégique pourra s’élargir. Les processus décisionnels des armées bénéficieront quant à eux d’une meilleure anticipation et d’une plus grande rapidité d’exécution.

Sur le terrain, c’est la protection des soldats, leur santé, leur entrainement qui gagneront en efficacité, en précision et en différenciation.

La multiplication des capteurs embarqués sur Ies systèmes d’armes, leur connexion entre des plateformes aériennes, terrestres ou navales, permettront un combat collaboratif où la conjugaison des effets et la rapidité de leur mise en œuvre interarmées et interalliés seront gages de supériorité opérationnelle. Dans cet environnement connecté et travaillant en réseau, de nouvelles modalités de combat associant systèmes autonomes à des systèmes habités sont déjà envisagées.

Au-delà du champ de bataille, l’IA par l’acuité et la pertinence de ses analyses permettra d’optimiser les flux logistiques, d’anticiper la gestion des stocks et des actes de maintenance permettant ainsi d’accroître le rendement des opérations militaires, la disponibilité des matériels et l’administration du personnel.

Ainsi, un écart se creusera rapidement entre ceux qui auront su développer la capacité à exploiter les données de plus en plus nombreuses d’un environnement numérisé et ceux qui s’en seront révélés incapables ou qui en auront été empêchés.

Le risque d’un déclassement opérationnel majeur serait réel si les armées françaises ne se mettaient pas en situation de tirer parti du potentiel considérable que recouvre l’IA pour ses systèmes de commandement, ses équipements, mais aussi son fonctionnement quotidien. L’enjeu est d’autant plus crucial face à des compétiteurs stratégiques dont certains pourraient en faire un usage totalement débridé qui nous exposerait à de graves menaces.

En un mot, la maitrise de l’IA, du strict point de vue militaire, pose déjà une question majeure de souveraineté. Elle est au cœur de la préoccupation des armées françaises.

Il s’agit donc de se mettre en capacité de développer rapidement une IA d’emploi. Plusieurs enjeux à ça.

Premièrement, les systèmes numériques qui conditionnent la supériorité opérationnelle et la continuité d’action des armées sont source de dépendances croissantes, dépendance par ailleurs amplifiées par la prolifération de technologies duales. Or, hormis les États-Unis et la Chine, aucun pays n’est en mesure de se positionner sur la totalité de la chaîne de valeur qui remonte en amont jusqu’aux terres rares, aux solvants, aux GPU, et en aval descend vers les systèmes d’exploitation jusqu’à l’IA en passant par les data scientist.

Pour conserver notre liberté d’appréciation, de décision et d’action, il faut donc savoir penser notre souveraineté numérique. Il s’agit de distinguer les segments sur lesquels les armées doivent être autonomes sur les technologies, les produits et les services employés, typiquement les segments touchant par exemple à la dissuasion ou à la cryptologie. Le coût RH et financier doit pouvoir en être assumé.

Pour d’autres segments, c’est la performance qui primera sur l’autonomie. L’emploi de technologies étrangères peut-être une dépendance consentie s’il existe des moyens de la mitiger. Idéalement il s’agit de s’appuyer sur des moyens développés et maintenus, a minima, par des industriels européens et non soumis depuis leur phase de développement jusqu’à leur conception à une quelconque ingérence normative ou juridique externe.

Deuxièmement, l’IA d’emploi doit être adaptée à l’environnement et aux exigences de fonctionnement imposées par les opérations militaires. Leurs problématiques ne sont que partiellement couvertes par l’approche civile de l’IA. La nature, le volume, la confidentialité ou l’accessibilité de certaines données peuvent concerner des cas d’usage tout à fait particulier, notamment dans le domaine offensif. Elles peuvent émaner de capteurs embarqués spécifiques dont les conditions d’emploi engendrent des contraintes propres : capacité de traitement réduites, liaisons impossibles.

Troisièmement, il s’agit de disposer d’une IA de confiance dont le fonctionnement soit maitrisé, adapté à la singularité de chacun des milieux (terre, air, mer, espace, cyber) et ne soit pas suje tte aux « hallucinations ». Aussi, l’IA doit être associée à une donnée de qualité dont le contrôle est à lui-seul un enjeu de souveraineté. C’est toute la question sous- jacente de la gouvernance des données, de leur protection, de leur collecte, stockage, exploitation.

La stratégie IA du ministère porte sur sept axes d’efforts qui ont été identifiés dès 2019 : aide à la décision, combat collaboratif, cyber défense, logistique, soutien et maintien en condition opérationnelle, robotique, administration, santé.

Elle repose sur une condition sine qua-non : disposer d’une infrastructure numérique souveraine sécurisée adaptée aux contraintes du ministère (sécurité mul tidimensionnelle, distribu tion géographique, embarquement) et permettant de développer des applications de traitement massif de données et d’algorithmes d’intelligence artificielle dont les armées ont besoin. Le projet ARTÉMIS-IA porte cette ambition. Il intègre en outre un kit offrant une ouverture sur le monde universitaire et industriel afin de bénéficier de leurs propres traitements.

En effet, il s’agit de pouvoir détecter des innovations qui ne s’adressent pas nécessairement à la défense, pour les amener sur des cas d’usage du MINARM. C’est tout un écosystème qu’il s’agit d’encourager au travers d’une innovation ouverte et participative portée par l’Agence d’Innovation Défense mais aussi en soutenant une stratégie industrielle et académique (écoles, centres de recherche, etc…). En l’occurrence, par la transversalité et la nature hautement duale du numérique, la souveraineté numérique des armées est insécable de la souveraineté économique et industrielle dont elle doit contribuer à l’essor tout comme d’une recherche académique de haut niveau.

En somme, l’acquisition de la supériorité opérationnelle, repose sur notre aptitude à conserver notre liberté d’action, maintenir la résilience de nos systèmes et leur évolutivité, préserver un cœur de souveraineté et s’appuyer sur une IA de confiance maîtrisée et … responsable.

C’est sur ce dernier point que je souhaite terminer.

 

Les enjeux de lIA : principes et régulation

La France a été pionnière en menant une réflexion active sur l’utilisation de l’IA. Elle a été l’un des premiers pays européens à se doter d’une stratégie IA pour la défense. Son but : protéger à la fois nos concitoyens et nos valeurs. Dès 2019, elle contribuait à la mise en place d’un comité d’éthique pluridisciplinaire et permanent, centré sur les technologies émergentes de La défense. En même temps, elle faisait l’état des lieux d’une révolution pour laquelle elle édictait des principes directeurs pour une IA de défense maîtrisée, dessinait une feuille de route et proposait une gouvernance propre à coordonner les actions du ministère, à diffuser une culture volontariste de l’usage de l’IA et à gagner la bataille des compétences.

  • La France s’est ainsi fixé trois grands principes pour l’IA :
  • Le respect du droit international
  • Le maintien d’un contrôle humain suffisant

La permanence de la responsabilité du commandement

C’est là pour moi l’occasion de rappeler que du point de vue du droit, l’IA doit s’inscrire dans la singularité sui generis de l’état militaire. Cette singularité s’inscrit dans le strict encadrement de l’emploi de la force par le droit interne, son caractère constitutionnel notamment, et le droit international des actions de combat.

A cet égard, l’IA, si elle n’est pas une fin en soi, pourra apporter une aide significative en faveur du respect des valeurs du DIH, facilitant, dans le feu de l’action et grâce à l’analyse en temps réel des moindres données, le respect des principes de nécessité, de proportionnalité, d’humanité et de discrimination entre combattants et non combattants.

A contrario, comme pour tout système d’arme, la mise en œuvre d’une IA ne saurait en aucune façon exonérer de leurs responsabilités ceux qui, soldats ou non, autoriseraient la mise en œuvre de systèmes dont l’emploi aurait pour effet de violer le DIH ou de constituer des infractions au droit pénal français.

Aussi, la forme de coopération homme-machine sera sans doute déterminante et l’utilisation de l’IA doit profiter à l’intelligence humaine qui doit rester le socle de l’action militaire, car le militaire, notamment au vu de ses responsabilités éthiques, ne saurait devenir un simple presse-bouton.

De manière plus large, la numérisation du champ de bataille fait d’ailleurs émerger de nombreux débats s’agissant du DIH où des failles et des points de clarification imposent travail légal. Certaines questions se posent : comment interpréter la convention de Genève aux opérations cyber ? l’idée d’une convention de Genève numérique est-elle pertinente ? S’il existe de nombreux groupes de travail multisectoriels tentant de définir des normes de comportement et juridiques, il n’existe pas de consensus international. Le Manuel de Tallin, en matière cyber, représente à ce jour la seule tentative intéressante de clarifier l’approche des normes.

En étroite collaboration avec le MEAE, le MINARM est impliqué dans les travaux de régulation internationale et l’édiction de normes tant au niveau mondial qu’Européen. Les armées souhaitent éviter une surenchère normative pouvant brider les capacités de développement de l’IA.

Au niveau international, la Convention sur Certaines Armes Classiques constitue le forum de discussion adéquat pour l’intégration de l’IA dans les systèmes d’arme. La France y promeut une double approche en opérant une distinction nette entre les SALA pleinement autonomes et incompatibles avec le DIH, qu’il s’agit d’interdire et que la France a décidé de ne pas développer ni employer et les Systèmes d’Armes Létaux Intégrant de l’Autonomie (SALIA) et compatibles avec le DIH, qu’il s’agit de réglementer. En mai 2023, 52 états se sont associés dans une déclaration reflétant cette double approche.

Enfin, l’arrivée prochaine d’une réglementation européenne sur l’intelligence artificielle visant à encadrer les pratiques de l’IA (AI Act) et d’une règlementation sur les données (Data Act) visant à encadrer l’accès aux données et leur utilisation va contribuer à ordonner davantage le paysage. Les enjeux pour le Minarm, concernent la préservation de la compétence des Etats Membres concernant la sécurité publique, la défense et la sécurité nationale et, compte tenu de la forte dualité du secteur, éviter d’introduire une fracture dans le traitement des obligations pesant sur les systèmes d’IA civils et militaires.

 

Conclusion

Voilà qui termine mon propos, beaucoup trop long et pourtant loin d’être exhaustif sur ce sujet central.

Vous l’aurez compris, dans un contexte international toujours plus complexe et dangereux, la France doit concentrer ses efforts pour élever son niveau de connaissance et de compréhension des compétiteurs ou adversaires, d’anticipation de leurs intentions et si nécessaire d’engagement de leurs menaces.

Elle doit également pouvoir s’appuyer sur des armées efficaces qui sachent, dans le respect des grands principes stratégiques, économiser leurs moyens et les concentrer.

Cette exigence de performance impose de poursuivre l’investissement dans les capacités technologiques qui permettront d’exploiter un volume de données en perpétuelle augmentation, afin de partager à temps l’information pertinente avec les échelons de décision et d’action.

Le ministère des armées s’est donc doté depuis plusieurs années d’une stratégie et des outils permettant d’accompagner la rupture technologique que représente l’IA. Et si, pour reprendre les termes fameux de la loi d’Amara, célèbre futurologue, « nous avons tendance à surestimer l’impact d’une technologie à court terme et à sous-estimer son emploi à long terme », ces moyens sont complétés par une réflexion éthique robuste permettant d’éviter d’éventuelles dérives.

Institut PRESAJE - 30 rue Claude Lorrain 75016 Paris
E-mail : contact@institut-presaje.com
Association loi de 1901