facebook
17 février 2025

Introduction à "Antiqua et Nova" sur l'IA

Marcel Rémon, jésuite, directeur du Ceras

La note Antiqua et Nova se focalise sur les relations entre intelligence artificielle et intelligence humaine.

Plusieurs rencontres préalables à cette note publiée en janvier 2025 furent organisées à Rome et ailleurs, où les géants de la "tech" se sont retrouvés. La note doit beaucoup au frère franciscain, Paolo Benanti, expert en éthique numérique à l'Université grégorienne de Rome, conseiller du parlement italien et membre de l'organe consultatif des Nations Unies sur l'IA. Le début est classique, dans le sens où il réfute catégoriquement l'utilisation du terme "intelligence" pour toute technologie. Seul l'être humain est doté d'intelligence. Car la soi-disant intelligence artificielle n'est que fonctionnelle, c'est-à-dire conçue pour répondre à des questions, comme l'a définie Turing en 1950. Or, l'intelligence humaine est définie comme la capacité non pas à répondre, mais celle à comprendre et à appréhender le sens du réel. "On peut apprendre beaucoup (...) d'un simple coucher de soleil" (33). L'intérêt de ces paragraphes est de critiquer vivement toute anthropologie dualiste, séparant le corps de l'esprit, pour offrir une vision de l'homme comme être relationnel et incarné dans une histoire collective. Cette anthropologie, bien résumée ici, est clairement celle développée par le Pape François dans ses prises de parole.

Le texte aborde l'IA de façon équilibrée, montrant les bénéfices et les dangers de son usage : "l'IA peut être utilisée à des fins positives ou négatives" (40).  Classiquement, la dimension morale est réservée aux personnes : "entre une machine et un être humain, seul ce dernier est véritablement un agent moral" (39). La question devient celle de la responsabilité : à qui l'attribuer parmi toutes les parties prenantes ? D'où la demande de transparence des processus de décision basée sur l'IA (44) et de réglementation permettant de "garantir la transparence, la confidentialité et la responsabilité" des prises de décisions des agents humains (46).  On retrouve ici des débats bien connus en éthique environnementale.

On aurait aimé une analyse de la responsabilité éthique moins individuelle, qui reprenne la notion de structure de péché ou de bien commun. Car les systèmes d'IA sont des structures pouvant fortement influencer l'agir des concepteurs, des informaticiens ou des utilisateurs, que ce soit en bien ou en mal.

Les questions spécifiques

La note passe en revue, successivement : (1) les questions sociales, (2) les relations humaines, (3) le monde du travail et de l'économie, (4) la santé, (5) l'éducation, (6) l'information, (7) le contrôle de la vie privée, (8) l'environnement, (9) la guerre et (10) la spiritualité, ce qui lui donne sa place dans la Doctrine Sociale de l’Église.

Pour presque chaque domaine, le texte mentionne quelques opportunités de l'IA, telles qu'un accès plus aisé et compréhensible à l'héritage intellectuel de l'humanité, une aide bienvenue à la détection de maladies ou à la décision médicale, des pédagogies novatrices, des procédures innovantes contre le réchauffement climatique ou un développement des protections pour plus de (cyber) sécurité. Mais, et c'est là que l'aspect structurellement dangereux d'une IA non régulée émerge, la note souligne majoritairement les dérives potentielles d'un usage non contrôlé des IA.

Le danger principal est l'anthropomorphisation des IA, qui, dans une visée transhumaniste, artificialise nos relations, entend remplacer les travailleurs et les éducateurs et formater nos intelligences, au point d'en faire une entité supérieure, semblable aux idoles de l'ancien Testament. Plusieurs passages questionnent le rapport à la vérité, dont les deep fake sont la partie émergée, alors que l’objet propre de l’intelligence humaine est la recherche de la vérité.

Dans la lignée de la pensée sociale catholique, le texte avertit des dangers d'un fossé grandissant entre les puissants et les laissés pour compte du numérique. Ces derniers risquent d'être surveillés, dominés par des systèmes IA de management, sans parler de l'exploitation des "petites mains" du Sud qui alimentent en permanence le système. Ou de l'empreinte carbone exponentielle de ces centres de données. Finalement, c'est dans le domaine militaire que l'IA est la plus dangereuse. C'est là que la nécessité d'une transparence et d'une responsabilité éthique est la plus urgente. Le Vatican réaffirme qu’aucune arme, aussi "intelligente" soit-elle, ne peut être autonome et "décider" de tuer ou non, sans validation humaine.

En conclusion, si cette note n'est pas d’une originalité inédite, elle constitue un résumé pertinent et accessible de ce que l’Église, dans sa sagesse, pense de l’IA.