Aurélien Grosdidier est docteur en pharmacie et en bioinformatique. Il porte une vision pluridisciplinaire, qu’il apporte entre autres au projet Technoréalisme, sur l'intelligence artificielle : ses angles morts, ses algorithmes, ses infrastructures… En raison de son absence de dernière minute, Arnaud Billion a présenté ses travaux.
Arnaud Billion, membre de la Direction Scientifique de ce colloque, est docteur en droit et chargé de recherche pour IBM. Il est l’un important contributeur à Technoréalisme et c’est dans ce cadre qu’il intervient aujourd’hui.
Aurélien Grosdidier, le traitement automatique et l'hypothèse biomimétique.
Mon intervention vise, en l'absence impromptue d'Aurélien, à me prêter à l’exercice de la recension de deux de ses articles parus en 2017 sur le site web ouvert Usbek&Rica. Il n'est pas sans intérêt de relever l'année de parution: 2017. Nous étions, avant ChatGPT, à sa prime jeunesse, ou en cours de l'adolescence de cette discipline qu’est l'éthique de l'IA. Il s'agissait alors pour l'auteur d'aider à la structuration rationnelle de cette discipline. Il n'est malheureusement pas certain que ses leçons aient été reçues. Mais nous nous proposons d’y insister, comme pour enfoncer le clou.
Ses deux articles sont intitulés pour le premier ”intelligence artificielle art ou artifice” et pour le second “les algorithmes peuvent-ils être éthiques”. L'auteur s'attaque à deux postures - à moins qu'il ne s'agisse de véritables positions, nous allons voir,- deux postures de principe : la posture pro-IA et la contre-IA. Il ne le fait pas pour trancher l'une en faveur de l'autre, mais pour dévoiler leur fondation intellectuelle commune. Les paradigmes des pros et des anti-IA sont très proches. De la sorte, si problème il devait y avoir avec l'IA, la résistance à l'IA ne pourrait qu'abonder à l'IA et renforcer les racines du problème. Et ces racines tiennent à la crédibilité de l'approche IA justement. Et donc - et là ce sont mes mots - à la crédibilité relative de ceux qui souscriraient à cette approche.
Voici donc le point commun entre les positions pro- et anti-IA. Les deux suggèrent que l'humain et l'IA partagent le même territoire d'aptitudes, territoire qui sera le lieu d'un rapport de force. Dans nos mots, si l'on veut comparer IA et IH - pour intelligence humaine - il faut encore s'assurer que les deux termes soient comparables.
Or l'auteur nous explique qu'il n'en est rien.
Intelligence Artificielle et Intelligence Humaine
Pour montrer la non-comparabilité de l'IA et de l'IH, il n'est pas besoin de recourir à une définition de la cognition humaine ou de l'intelligence humaine. Il suffit de rappeler que l'IA relève d'un projet de recherche technoscientifique. L'IA c'est une technique computationnelle. Les études dans ce domaine ont été financées dans le cadre d’un programme de recherche qu'on appelait l'IA, et qui se proposait de simuler le travail du cerveau sur un ordinateur pour envisager si des leçons pourraient être tirées dans les sciences cognitives. J'insiste un petit peu: il ne s'agissait pas de bâtir un cerveau artificiel mais de construire un jouet électronique, un environnement de test qui soit une réplique, comme une statuette faite de rouage ou comme un automate qui puisse traiter des entrées et des sorties, tout en se laissant guider par une analogie avec le cerveau comme pour disposer d'un moyen arbitraire de formuler des hypothèses sur le fonctionnement du cerveau humain.
Alors c'est bien autre chose, le fait que ce jouet puisse obtenir des résultats qu'obtient aussi le cerveau humain: c'est d’une toute autre manière avec des entrées et des sorties différentes. Par exemple, mon cerveau n'a pas besoin d'acquérir des données en mode 1/0 ou dans un langage java ou python et d'autres. Il y a donc une erreur commune qui consiste à écarter ces détails gênants et de prétendre oublier toutes les différences entre les deux objets à comparer pour les placer sur un plan narratif commun où tout se ressemble. C'est un problème de gestion de la métaphore sur laquelle nous reviendrons. Dire que l'IA peut être intelligente au sens humain, c'est nier les prémices scientifiques et raisonnables de l'IA. Faire comme s'il n'y avait aucun jouet, aucun ordinateur. Faire comme s'il existait un lieu où un cerveau artificiel pourrait être bâti, que ce lieu n'aurait pas besoin d'être un ordinateur.
Au plan de l'entendement, rien ne fonde la comparaison entre IA et IH. C'est simplement hors sujet, c'est complètement orthogonal. Il n'y a pas de point de rencontre entre les deux. Du côté biologique, la recherche scientifique montre que notre cerveau ne traite pas d'informations ; que notre cerveau n'est pas un ordinateur. Par surcroît, l’IH est un objet d'investigation très singulier qui comprend ce dont nous disposons pour le penser, justement notre intelligence.
Dès lors, mettre sur le même plan la concrétude d'une activité scientifique qui à la fin se fait technique computationnelle, et notre faculté de compréhension, c'est pour le moins un grand écart. On relève une double simplification. La première, faire comme si les objets étaient comparables. Et la seconde, faire comme si l'activité sociale des scientifiques et leur organisation était un équivalent de la biologie d'un être humain qui le pense. Et faire comme si d'ailleurs cette activité scientifique ne pesait pas dans le plateau de l'IA alors qu'il faut bien, par exemple, allumer l'ordinateur. Donc pourquoi met-on d'un côté IA qui marcherait toute seule sans être humain, comme si ça ne comptait pas au plan de l'intelligence humaine qui a fabriqué l'IA? Vous voyez, c'est quand même un peu bizarre de dire “vous êtes intelligents dans la mesure où vous n'avez pas fabriqué l'IA… sinon on ne pourrait pas comparer”.
L’algorithme
Commençons donc avec ce mot, algorithme, puisque l'auteur nous invite au jeu des définitions raisonnables. On a établi une éthique des algorithmes et on aurait raison si ces derniers étaient plus que ce qu'ils sont réellement. Si l'on pouvait trouver dans l'ordinateur un seul algorithme opérant. Hélas, un algorithme n'est qu'une suite finie non ambiguë d'opérations ou d'instructions permettant de résoudre un problème ou d'obtenir un résultat. L'algorithme n'est pas le code qui le déploie. Autrement dit, si l'algorithme est une méthode comme une recette de cuisine, pour autant qu'on s'intéresse à l'IA déployée, il faut encore envisager plusieurs étapes après la formulation de la recette de l'algorithme:
- leur traduction en code informatique visible par l'homme
- la transformation de ce code informatique en un code qu'une machine peut exécuter
- l'exécution de ce code exécutable sous forme d'une instance qui opère sur une infrastructure en lien avec un contexte opérationnel spécifique
- enfin la maintenance du tout donc du code et de l'infrastructure qui permettent d'exécuter
C'est comme si on disait au sujet du cuisinier que ce qu'il est écrit dans le livre de recette, c'est comme ce qu'il y a dans l'assiette. Ou encore au sujet du juriste, que la loi était le comportement des justiciables.
Il n'y a pas d'algorithme dans l'ordinateur, mais si l’algorithme sert à quelque chose, c’est à mieux saisir une partie de l'intention de son concepteur, certainement pas de désigner le décalage entre ce que fait l'IA en pratique et l'intention première que reflète l'algorithme. L'algorithme rend compte seulement de la logique théorique du code… la logique théorique du code, à l'arrêt en plus, est nécessairement éreintée par sa mise en œuvre compte tenu de ce qu'est un ordinateur. La naïveté de la proposition de l'éthique des algorithmes se heurte alors à l'objection ainsi formulée: “le concept de chien n'aboie pas, le plan d’un robot ne fabrique rien” et, je cite encore l'auteur, “l'absence de telle distinction entre algorithme et code pourtant très basique empêche de gravir la première marche de la moindre réflexion.”
Si l'on s'intéresse vraiment à l'IA, il faut s'interroger sur les données
Les données
Les données sont des réductions binaires du réel et elles sont traitables. La puissance des données, c'est surtout la puissance des métadonnées, de leur catalogage, de leur étiquetage pour un traitement dans la machine à gouverner. C'est-à-dire une puissance qui réduit le monde à la mesure de ses traitements. Les métadonnées, c'est comme la grammaire des données qui les orchestre les unes avec les autres pour en permettre le traitement. S'il n'y a pas de traitement, l'ordinateur ne fait rien, il est par exemple éteint, et donc il n'y a pas d'IA.
Les logiciels, ces petites machines numériques à traiter de données sont le fruit, comme sait bien l'informaticien, d'un empilement (et là il faut un petit peu s'accrocher parce que ce n'est pas une expérience commune) un empilement de couches de complexité les unes au-dessus des autres. Parfois de couches de complexité les unes à côté des autres. Mais bien trop rarement les unes en remplacement des autres. Nous sommes ici trahis par nos sens puisque notre expérience de la technique c'est que, quand un objet est cassé, on le remplace par un objet neuf et on met l'objet cassé à la poubelle. C’est ce qu’explique Jean Rohmer aussi, la donnée s’empile et s'imbrique. C'est toujours une sédimentation.
Donc nous sommes en présence d'une autre distinction basique données-traitement. Or qui s'intéresse à ces questions fondamentales: Intrication logicielle, interdépendance technique, décommissionnement et cycle de vie des logiciels, migration et transformation de données? C'est aride n'est-ce pas? Mais le RIA passe à côté malheureusement, de même que la plupart des éthiciens de l'algorithme.
Les éthiciens de l'algorithme ont ce tort d'ignorer ce problème crucial en pratique, ne serait-ce qu'au plan énergétique, parce que ce n'est pas les algorithmes qui consomment, c'est le code. L'algorithme ne consomme rien. On l'écrit au tableau, il ne fait pas d'autres choses que ça. Il consomme un peu d'encre du stylo.
C'est un problème bien sûr bien plus dur théoriquement que l'enchaînement de lapalissades sur les problèmes théoriques des algorithmes à l'arrêt. Prétendre que les données c'est de la connaissance ou procurent de la valeur ou faire comme s'il y avait plusieurs espèces de données comme des espèces de chiens, c'est faire comme si on était Midas touchant la donnée pour en faire de l'or. C'est donc la pensée magique. Mais ici c'est plutôt le mythe de Tantale qu’il faut convoquer puisque dès qu'on informatise quelque chose c'est comme si ça devenait inopérant pour nous, on ne peut plus le manger par exemple.
Les traitements automatiques de l'information
L'IA, bien au-delà des algorithmes, c'est du TAI : traitement automatique de l'information. L'IA, c'est le nom commercial de la dernière vague d'automatisation de processus. Or ceci est en proie à des rapports de force économiques. Or, je cite l'auteur, “les conséquences de l'automatisation nous interrogent. Elles devraient nous conduire à questionner la culture depuis laquelle ces rapports de force émergent et qu'ils contribuent désormais à faire advenir. L'arbitrage des rapports de force est nécessaire.” Mais comment pourrions-nous arbitrer si on veut croire au pouvoir des algorithmes, à la comparabilité humain-machine ou à la naturalité de la donnée? Comment penser ces rapports de force sinon si on se réfugie dans la pensée magique? Comme l'écrivait Gaston de Pawlowski à propos du scientisme : “démontons et classons minutieusement tous les rouages de notre montre, il serait bien étonnant qu'au terme de ce processus nous ne sachions pas enfin l'heure qu'il est.”
Comprendre l’IA
L'auteur ouvre une piste pour penser et qualifier l'IA. Il s'agit de construire la connaissance, ce qui suppose d'accepter de voir détruites nos croyances. Comprendre en particulier, si nous sommes prêts à accepter, le coût de l'automatisation généralisée. Comprendre s’il nous convient de faire l'impasse sur notre méconnaissance, cancres de nous faire comme si nous étions les premiers de la classe, et de ne même plus essayer d'utiliser les outils de raisonnement humain. Comme si seul le récit publicitaire était autorisé et possible.
Le marketing renforce la perception animiste alors qu'il nous faut comprendre les systèmes qui nous entourent. L'approche de pure sciences disciplinaires abstraites qui postulent, ayant posé des objets théoriques présents nulle part (données, algorithmes, tout le reste) ne fait pas mieux. Et puis la recherche scientifique disciplinaire n’écoute rien de ce qui peut contrarier son petit programme. L'auteur relève dans son champ d'expertise que les approches analytiques des sciences cognitives sont en échec lorsqu'il s'agit de comprendre un microprocesseur pourtant très simple.
L'ambition intellectuelle ne peut alors que s'allier à l'humilité qu'il y a à reconnaître les limites de nos outils d'analyse. Il faut comprendre, mais en sachant que nous ne pouvons pas tout comprendre. Voilà les chantiers pour le présent et l'avenir :
- l'automatisation comme phénomène anthropologique majeur
- l'irénisme des fausses oppositions pour/contre IA
- l'incomparabilité avec l'IH ce qui suppose de démonter l'illusion
Un travail de définition est impératif, il s'agit de savoir si l'intelligence dite artificielle relève de l'art ou de l'artifice ou des deux à la fois ce qui serait - et ça c'est très beau mais il faut méditer dessus - “la maîtrise ultime de l'illusion ou l'illusion de la maîtrise ultime”. L'art ou l'artifice, c'est soit la maîtrise ultime de l'illusion ou l'illusion de la maîtrise ultime.
Alors comprendre c'est rester auteur et maître de la métaphore. Et être auteur de la métaphore ça veut dire refuser d'entrer dedans comme si nous étions des enfants - je cite - “une métaphore est une simple analogie unidirectionnelle et simplificatrice qui ne vaut ni réciprocité ni identité… Pensez qu'un TAI, traitement automatique de l'information, même ultimement sophistiqué pourrait permettre de faire émerger une intelligence humaine hors humain, cette croyance est une imposture qui découle d'une erreur logique.”
Et je reprends la parole : l'erreur logique, c'est le péché capital pour celui qui se réclame de l'approche scientifique. On ne doit jamais lui pardonner une telle erreur. Ou, si on lui pardonne, on lui demande de retirer son hypothèse ou d'admettre qu'il se donne en spectacle. La science est basée là-dessus : si on dit des choses contradictoires entre elles, ça ne marche pas.
Alors que penser à cette lumière de la singularité? La singularité c'est prétendument l'hypothèse du passage à l'IA générale dominant l'intelligence humaine. Nous comprenons avec l'auteur que ce ne serait que le moment où le niveau d'automatisation socio-économique serait tel, et la méconnaissance et l'auto-illusion tellement avancées que l'on renoncerait carrément à toute démarche empirique, analytique ou savante. Je cite encore l'auteur : la théorie de la singularité se trouve par conséquent reléguée à la mise en scène d'une fiction binaire, le dérisoire spectacle d'une humanité se gargarisant d'un pouvoir qu'elle pense avoir dans ce que l'imagine être son avenir.
Aurélien Grosdidier, véritable scientifique, véritable informaticien - ce qui n'est certes pas la même chose - grand connaisseur des développements les plus récents dans les champs qu'il tient sous son radar, nous exposait dès 2017, dans un langage limpide ce qu'il anticipait comme une erreur collective de jugement. Ou plutôt crois-je l'erreur de certains qui se font les dupes des autres… il y a ainsi erreur ou mensonge.
J'ai voulu en me faisant l'écho de ces mots faire résonner la possibilité d'une conversation civique rationnelle qui fasse un digne usage de l'intelligence naturelle.