Metz
Toutes les deux semaines, retrouvez la chronique de Sophie Robert-Hayek, chercheuse en théologie à l'Université de Lorraine, dans notre émission Entre midi, entre Lorrains sur RCF Jerico Moselle.
Ce lundi 28 avril, elle a abordé autre de ses champs d’expertise : l’Intelligence Artificielle.
Ce sujet vous intéresse? Retrouvez cette chronique juste ici.
L'Intelligence Artificielle semble désormais partout, dans nos voitures, dans les applications mobiles, et même maintenant dans la santé. Mais il me semble qu'utiliser des outils mathématiques pour modéliser le monde qui nous entoure n'est pas nouveau...
En effet, l’Intelligence Artificielle, et notamment les outils de génération de langage, que l’on appelle LLM (Large Language Models) génératifs, dont ChatGPT fait parti par exemple, sont en train de devenir omniprésents dans nos sociétés occidentales. Et effectivement, c’est vrai que pour certaines tâches, ils semblent plutôt efficaces.
Mais aujourd’hui, j’aimerais attirer l’attention non pas sur leurs applications ou même sur leur fonctionnement, mais plutôt sur la révolution qu’ils opèrent sur la façon même dont la science et l’humain appréhendent le monde, c’est ce qu’on appelle l’épistémologie, la théorie de la connaissance.
Depuis Galilée, c’est à dire depuis la première moitié du 17e siècle, l’humain a essayé de modéliser le monde. C’est de la que vient la fameuse expression de Galilée, qui dit que le monde est écrit "en langue mathématique" et que si on ne s’exerce pas "à comprendre la langue et à connaître les caractères avec lesquels elle est écrite”, on évolue "dans un labyrinthe obscur".
Et depuis le 17e siècle, les mathématiciens, les physiciens, et même les biologistes, ont travaillé conjointement pour mettre en place des modèles mathématiques capables d’approximer les phénomènes physiques auxquels nous faisons face, afin de réaliser des prédictions par exemple. C'était le cas jusqu'à tout récemment des modèles de la météo par exemple, qui sont en train d'être adaptés pour eux aussi utiliser l’IA.
Si, d’une certaine manière, c’est des mathématiques, dans le sens où différents concepts issus de l’algèbre linéaire et de l’analyse sont mobilisés afin de mettre en place les algorithmes utilisés. Pour ChatGPT par exemple, il s’agit d’une sous-classe d’algorithmes que l’on appelle réseaux de neurones.
Mais là où vous avez un énorme changement de paradigme par rapport à ce qu’on pourrait appeler les mathématiques appliquées classiques, c’est sur les garanties théoriques que ces modèles vous offrent : il n’y aucune garantie théorique, aucune preuve de convergence, que ces modèles fonctionnent efficacement.
Dans les mathématiques classiques, il y a des théorèmes, il y a des preuves mathématiques, qui font qu’il y a une garantie sans équivoque des solutions proposées. Avec l’IA, c’est le contraire : la seule garantie est la garantie pratique. Pour valider un modèle d’IA, vous l’entraînez sur une très large quantité de données, et vous vérifiez qu’il performe bien sur des données de tests. C’est une manière purement expérimentale de procéder, radicalement différente par rapport à la manière dont les mathématiciens ont l’habitude de travailler. Ainsi, en IA, on peut quelque part dire : "si ça fonctionne, c’est vrai".
Alors la première implication, c’est la perte totale de ce qu’on appelle "l’explicabilité". Pour Galilée, et pour la science occidentale dans son sillage, la tâche de la science c’est de réussir à écrire en termes mathématiques les phénomènes physiques, afin de réussir à les expliquer. Par exemple, dans les modèles météorologiques, vous pouvez comprendre par exemple l’impact de la pression atmosphérique sur la météo observée.
L’IA, par son approche expérimentale, c’est le contraire : les modèles qui sont mis en place ne sont pas explicables. Ils fonctionnent, et c’est vrai qu’on peut tous le constater dans le sens ou ChatGPT fait dans la majorité des cas des réponses cohérentes, mais vous n’avez derrière aucune théorie scientifique qui permet d’expliquer pourquoi ça marche, de mettre en place un modèle qui permet d’expliquer les phénomènes observés. Cela réduit l’expérience que l’humain a du monde à la simple expérience, et on est donc en opposition radicale par rapport aux volontés d’expliquer le monde grâce à des théories généralisables.
Le gros risque que vous avez avec l’IA est finalement sa grosse dépendance sur les données d’entraînement : on a l’impression que ChatGPT génère des choses nouvelles, alors qu’il ne fait qu’organiser différemment le très vaste corpus de données sur lequel il a été entraîne.
Et là, nous rentrons dans le risque de ne plus rien créer, et de rester sans cesse dans un remaniement du passé, bloqués dans l’interprétation qu’ont pu faire ceux qui ont préparé les données en amont. Alors que les mathématiques classiques se voulaient universalistes, on risque de tomber dans la subjectivité de nos interprétations du monde, et de ne plus générer de nouvelles manières de le penser.
On rentre dans une épistémologique empirique et utilitariste, et quelque part, on régresse par rapport aux prétentions de la science moderne et des Lumières.
Il est bien sur impossible de faire une prédiction, vu à quel point cette révolution a été soudaine.
Mais pour ce que je peux en voir aujourd’hui, c’est que nous courrons le risque d’un fort affaissement de la pensée critique, de la pensée créatrice et de la volonté universaliste de penser l’existence humaine, comme ont pu le théoriser le mouvement des Lumières. La vérité risque réellement de ne devenir plus qu’une réalité empirique, finalement une vérité expérimentale qui marcherait "pour moi", plutôt qu’un concept qui serait universel et partage par l’ensemble des humains.
Le risque sur nos capacités de réfléchir, nos capacités d’apprendre, et nos capacités d’efforts intellectuels est lui aussi majeur : l’IA s’inscrit dans la volonté utilitariste de faire, de produire, plutôt que d’apprendre, de devenir plus cultives, finalement de devenir plus humain. C'était ça la volonté humaniste : la formation intellectuelle, qui passait par l’apprentissage des langues, de la littérature, de l’histoire, des mathématiques, était ce qui devait nous rendre plus humain.
L’idée n’était pas d’apprendre pour pouvoir produire ou pour faire du profit, mais avant tout d’apprendre pour devenir plus critique et plus libre. Et quand je vois cette montée de l’IA, et le nombre de personnes qui l’utilisent, j’ai peur de la mort de cette conception du savoir pour le savoir, d’un savoir gratuit, qui ne permettrait pas de faire ou de produire, mais de connaître le monde qui nous entoure.
"Entre midi", ce moment de la journée qui n'existe qu'en Lorraine : les équipes locales de RCF vous invitent chaque jour de la semaine, en direct, pour prendre le temps d'analyser et comprendre l'actualité de notre région.
Suivez l’actualité nationale et régionale chaque jour
RCF est une radio associative et professionnelle.
Pour préserver la qualité de ses programmes et son indépendance, RCF compte sur la mobilisation de tous ses auditeurs. Vous aussi participez à son financement !