Jean-Paul et Marie-Christine Haton : de la théorie à la pratique, l'éclairage de spécialistes français sur les intelligences artificielles
Fascination pour les uns, inquiétude pour les autres : l’intelligence artificielle (IA) s’impose aujourd’hui comme un acteur discret mais omniprésent de notre quotidien. Son apparition n’a pourtant rien d’un miracle soudain : après des décennies d’expérimentations, les avancées technologiques des années 2010 ont donné à l’IA l’élan qui la rend incontournable. Pour décrypter ce tournant, ses promesses et les défis éthiques qu’il pose, RCF Lorraine Nancy a reçu Jean-Paul et Marie-Christine Haton, qui signent ensemble Intelligences artificielles : de la théorie à la pratique.
Marie-Christine et Jean-Paul HatonNicolas Dufour : Jean-Paul Haton, la première fois que je vous ai rencontré, c’était en 1999. Vous étiez à l’époque responsable du pôle recherche en IA au sein du Loria, à Nancy. Je me souviens que vous faisiez des recherches sur la reconnaissance vocale. Mais cela faisait déjà quelques années que vous travailliez sur l’intelligence artificielle, un terme qui lui-même a vu le jour en 1956[1]. Pour le grand public, c’est longtemps resté de la science-fiction, peut-être même pendant plus d’un demi-siècle. Et puis, un jour, on se réveille, et l’IA est partout autour de nous. Je simplifie bien sûr, mais que s’est-il passé ? Comment expliquer cette impression que la technologie est restée théorique pendant une cinquantaine d’années avant de devenir omniprésente presque du jour au lendemain[2] ?
Jean-Paul Haton : Elle est effectivement passée très rapidement à la pratique, au début du XXIᵉ siècle. Le phénomène le plus marquant pour le grand public a sans doute été celui des jeux : d’abord les jeux d’échecs avec un système d’IBM, puis le jeu de Go, que l’on considérait comme hors de portée pour une machine. Le jour où un système a détrôné le meilleur joueur de Go, il s’est passé quelque chose. Et ce quelque chose, c’est tout simplement l’apparition et le succès des réseaux neuronaux profonds[3].
Nicolas Dufour : Il y a en effet différents types d’intelligence artificielle, comme l’indique le titre de votre livre : Intelligences artificielles : De la théorie à la pratique. Marie-Christine et Jean-Paul Haton, vous êtes des précurseurs dans le domaine. Quand vous avez commencé à travailler sur l’IA, dans les années 1970, qu’est-ce qui vous intéressait dans cette discipline ?
Marie-Christine Haton : Je suis entrée dans ce domaine à la suite de mon mari, dans le cadre de la reconnaissance et de l’analyse du signal de parole. Je me suis particulièrement concentrée sur la rééducation vocale, notamment pour les enfants malentendants, ainsi que sur l’apprentissage des langues, qui en est le prolongement. Tout cela nécessitait une analyse fine du signal et l’extraction de paramètres pertinents pour pouvoir les montrer comme contre-réaction visuelle à l’enfant déficient auditif. C’était mon point de départ.
Jean-Paul Haton : Comme Marie-Christine, je suis au départ physicien — un physicien qui a mal tourné, dirait-on ! Au lieu de poursuivre en physique, j’ai rencontré l’ordinateur, qui naissait à l’époque, à la fin des années 60. Je suis arrivé à l’intelligence artificielle par le signal vocal. Avec mes collègues de Nancy, l’idée était d’une part de reconnaître la parole — ce qui est aujourd’hui banal — et d’autre part, comme Marie-Christine, d’utiliser les techniques de traitement du signal pour aider les sourds à mieux parler. Et je me souviens qu’à l’époque de notre première rencontre, vous butiez encore sur certaines difficultés : on était très loin de ce qu’on peut faire aujourd’hui avec un simple smartphone.
Nicolas Dufour : Qu’est-ce qui s’est passé en quelques années ?
Jean-Paul Haton : Si, à l’époque, vous m’aviez demandé quand le grand public pourrait parler à un appareil et être compris, je vous aurais répondu : au 22ᵉ siècle[4]. Parce que la difficulté de la reconnaissance de la parole était telle qu’on pensait que cela prendrait beaucoup plus de temps. Et puis, il s’est passé la même chose que pour le jeu de Go : les réseaux neuronaux profonds sont apparus et ont commencé à dominer les approches classiques en reconnaissance de la parole[5].
Nicolas Dufour : Bon, on y revient. C’est peut-être le moment de distinguer les différentes approches : neuronale, générative… On parle beaucoup d’IA générative ces derniers temps. Symbolique, probabiliste… Pour un public non spécialiste, on peut dire que ce sont les grandes familles à retenir.
Jean-Paul Haton : Oui, je crois que les deux grandes familles sont d’une part l’IA symbolique — Marie-Christine en reparlera — dans laquelle on accumule des connaissances pour raisonner dessus, comme le fait un animal ou un être humain. Et puis il y a l’autre côté, qui consiste non pas à accumuler des connaissances mais des données, pour en extraire la bonne information. C’est le phénomène de big data dont tous les médias parlent. Dans ce domaine, il y a deux sous-ensembles : les modèles statistiques (comme les modèles de Markov cachés, qui étaient la base de la reconnaissance de la parole jusqu’à récemment) et les modèles neuronaux ou neuromimétiques, inspirés du système neuronal animal[6].
Marie-Christine Haton : Oui. Si on reprend le domaine de la parole, le fait d’extraire des connaissances venant de phonéticiens, linguistes ou ergonomes permettait d’expliquer le pourquoi des décisions, le pourquoi des visualisations, des aides à la production de la parole. Alors que les systèmes actuels issus des réseaux neuronaux profonds donnent des solutions, des interprétations à partir de données vocales, mais ne vous disent pas comment se fait le processus, et surtout ne fournissent aucun élément d’explication ou de compréhension[7].
Nicolas Dufour : Dans ce que j’entends de votre parcours de chercheurs, ce qui vous motivait, c’était aussi d’améliorer la vie des gens. Quel est, selon vous, le domaine où l’impact sera le plus profond dans les prochaines années ?
Jean-Paul Haton : Il y a toute une IA encapsulée et cachée, que l’on ne voit plus, et qui est couramment utilisée : dans l’industrie, dans le pilotage d’installations, dans le tertiaire (banques, assurances), et en médecine, notamment en radiologie, radiothérapie, diagnostic. Ces outils sont banalisés[8].
Nicolas Dufour : On sait par exemple que l’IA permet aujourd’hui de détecter des cancers avec un degré de précision supérieur à celui d’un spécialiste[9]. Est-ce qu’on peut imaginer qu’un jour, l’IA permette de guérir le cancer ?
Jean-Paul Haton : D’aider à établir des plans de thérapie, très certainement. Guérir directement… là, on entre peut-être dans un autre domaine : le génétique, le moléculaire. C’est sans doute en dehors de l’immédiat.
Nicolas Dufour : Pour y parvenir, il faudrait atteindre ce qu’on appelle l’IA forte ?
Jean-Paul Haton : C’est une très bonne question, qui n’a pas vraiment de réponse. L’IA forte, dans l’esprit du public, signifie que l’on aurait des systèmes dépassant l’intelligence humaine — des surhommes ou des surfemmes. Moi, je n’y crois absolument pas[10]. Et ce n’est pas l’IA générative actuelle qui nous conduira à une intelligence surhumaine. Peut-être qu’elle existera un jour, mais je n’y crois pas trop et je n’en vois pas l’utilité. Pour moi, l’IA est un outil, un outil de plus dans la panoplie de l’être humain. Actuellement, ce que nous connaissons au quotidien, c’est l’IA faible, de moins en moins "faible", mais certainement pas forte au sens où elle dépasserait l’homme dans tous les domaines.
Nicolas Dufour : Revenons sur l’IA générative. De quoi s’agit-il précisément ?
Jean-Paul Haton : L’IA générative est une branche de l’IA apparue au XXIᵉ siècle, directement fondée sur les réseaux neuronaux profonds. Ceux-ci peuvent servir à interpréter des radiographies, IRM, etc., ou à reconnaître la parole. L’IA générative utilise ces réseaux pour engendrer quelque chose : parole, image, vidéo, film, chanson, voire symphonie, à partir d’une requête écrite — un prompt. Et à partir de cela, l’IA générative génère[11].
Nicolas Dufour : Je remarque un rejet croissant de l’IA, dans toutes les générations. L’avez-vous constaté ?
Jean-Paul Haton : Je ne sens pas vraiment de rejet, plutôt une peur ou une incompréhension, mais pas un rejet[12].
Marie-Christine Haton : Moi, je pense qu’il y a une inquiétude, notamment en lien avec l’écologie ou l’énergie. Néanmoins, chacun s’approprie ces outils : les gens améliorent leurs photos, créent du contenu… Il y a une démocratisation. Donc oui, il y a une crainte, mais aussi un usage massif. C’est une forme d’ambivalence.
Nicolas Dufour : Il y a des peurs : disparitions d’emplois, surveillance, manipulation… On voit beaucoup d’emplois disparaître, mais pas encore les nouveaux apparaître…
Jean-Paul Haton : Oui, il y aura des suppressions d'emplois. La robotique sera de plus en plus présente. Et cela supprimera beaucoup d’emplois : la façon dont on construisait une R4 il y a quelques années, comparée à une Renault Austral aujourd’hui… Le nombre d’employés a été divisé par 1000[13]. Et ce n’était même pas de la robotique intelligente. L’IA va encore diminuer ce nombre. Mais, comme toujours, d’autres métiers apparaîtront : les data scientists, par exemple.
Marie-Christine Haton : Moi, je n’y crois pas trop. Je ne vois pas un monde rempli de robots. Je ne me vois pas face à un médecin-robot, ni face à un journaliste-robot. Je crois plutôt à une requalification des métiers, et c’est un vrai cheval de bataille : la formation. Ceux qui seront écartés seront ceux qui ne seront pas formés. Il faut former très tôt, sensibiliser très tôt.
Nicolas Dufour : J’avais une question liée à l’éducation : on constate une baisse de mémorisation, car il suffit de demander à nos outils. On zappe plus vite, on lit moins, on passe d’une vidéo courte à l’autre… N’y a-t-il pas un travail profond à mener ?
Marie-Christine Haton : Il y a un gros travail à faire. Il y a une inquiétude qu'on voit poindre dans les métiers de l'éducation. Ce raccourci — passer de la compréhension écrite à un usage purement tactile et immédiat — est un vrai motif de réflexion.
Jean-Paul Haton : Je suis assez d’accord. Il y a deux aspects : d’une part, la difficulté à éliminer ce qui n’est pas bon dans ce que nous renvoie Internet ou les robots ; d’autre part, la baisse du temps passé à lire. Et donc le risque de perdre la capacité de lire, une capacité qui n’a que quelques millénaires. Si l’humanité perd cela, c’est un recul considérable[14].
Notes de fact-checking (générées par ChatGPT 5.1)
[1] Origine du terme “intelligence artificielle”
Le repère « 1956 » est historiquement correct : c’est la conférence de Dartmouth (USA) qui est considérée comme l’acte de naissance officiel du terme « Artificial Intelligence ».
[2] “Demi-siècle de science-fiction, puis réveil soudain”
C’est une image parlante mais simplificatrice. L’IA a connu des phases de progrès et de recul (“hivers de l’IA”) dès les années 1960–1990, avec déjà des applications concrètes (systèmes experts, planification, reconnaissance de formes). Dire que tout est resté “théorique” pendant 50 ans est exagéré.
[3] Rôle des réseaux neuronaux profonds
Les réseaux neuronaux profonds (deep learning) ont joué un rôle clef dans les succès récents (AlphaGo, vision, reconnaissance de la parole). Mais ces avancées reposent aussi sur la puissance de calcul (GPU), la disponibilité de grandes masses de données et des progrès algorithmiques. Le succès ne vient pas uniquement de l’apparition de ces réseaux.
[4] “22ᵉ siècle” pour la reconnaissance vocale
Jean-Paul Haton relate une estimation qu’il aurait faite à l’époque. Ce n’est pas un fait mais un témoignage sur la difficulté perçue du problème. Comme toutes prédictions rétrospectives, c’est à prendre comme un commentaire, pas comme une donnée scientifique.
[5] Deep learning et reconnaissance vocale
Factuellement, les systèmes de reconnaissance vocale actuels (smartphones, assistants vocaux, etc.) reposent en grande partie sur des architectures neuronales profondes. Les anciens modèles HMM + GMM ont été progressivement remplacés par des réseaux neuronaux (RNN, LSTM, puis Transformers).
[6] Deux grandes familles : symbolique vs données (statistiques / neuronales)
C’est une classification pédagogique classique et globalement exacte :
- IA symbolique (logique, règles, systèmes experts)
- IA numérique / statistique (modèles probabilistes, réseaux neuronaux, etc.).
[7] Boîte noire des réseaux neuronaux profonds
La critique sur le manque d’explicabilité des réseaux neuronaux est largement documentée : la “boîte noire” est un vrai enjeu de recherche (XAI, eXplainable AI). Les systèmes donnent une sortie, mais le chemin exact décisionnel est difficile à interpréter.
[8] IA “encapsulée” dans l’industrie et le tertiaire
C’est factuellement juste : de nombreux systèmes d’optimisation, de détection d’anomalies, d’aide à la décision, de scoring (banque / assurance) utilisent déjà des techniques d’IA ou d’analytique avancée, souvent sans être visibles du grand public.
[9] “Détecter des cancers mieux qu’un spécialiste”
Il existe des études où des modèles d’IA surpassent des radiologues humains sur certaines tâches précises (ex. dépistage de cancers du sein sur mammographies), mais les résultats sont très dépendants du protocole, des données, du contexte clinique. Dire cela comme une vérité générale est trop catégorique : il faudrait ajouter “dans certains contextes, pour certaines tâches et sur certains jeux de données”.
[10] “L’IA forte n’existera pas / ne sert à rien”
Il s’agit clairement d’une opinion, pas d’un fait. La possibilité d’une IA générale (AGI) est un sujet fortement débattu. Il n’y a ni preuve qu’elle sera atteinte, ni preuve qu’elle est impossible — juste des arguments théoriques et des conjectures de chercheurs.
[11] IA générative apparue au XXIᵉ siècle
Les premières idées d’IA générative (réseaux de neurones génératifs, modèles de langage) remontent au XXᵉ siècle, mais l’explosion des modèles génératifs “grand public” (GPT, diffusion, etc.) date bien des années 2010–2020. Dire qu’elle est “apparue au XXIᵉ siècle” est acceptable dans un cadre de vulgarisation, même si les racines théoriques sont plus anciennes.
[12] Rejet, peur, incompréhension
Nous sommes ici dans le domaine de la perception sociale. Il existe des sondages montrant à la fois de l’enthousiasme et de l’inquiétude vis-à-vis de l’IA. Parler de “rejet croissant” est une interprétation journalistique ; parler de “peur / incompréhension plutôt que rejet” est l’interprétation du chercheur. Aucun des deux n’est un “fait dur” sans chiffres précis.
[13] “Divisé par 1000” pour les emplois dans l’automobile
C’est clairement une hyperbole destinée à frapper les esprits. On ne trouve pas de données sérieuses montrant une division par 1000 des effectifs pour un même modèle de voiture entre deux époques. En revanche, la tendance structurelle à l’automatisation et à la réduction des besoins en main-d’œuvre par voiture produite est, elle, bien documentée.
[14] “Perdre la capacité de lire”
C’est un scénario de type “alerte” sur la baisse du temps de lecture et la fragmentation de l’attention. Il n’existe pas de preuve qu’une génération “perdra la capacité de lire”, mais des études montrent une baisse de la lecture longue et des inquiétudes sur la compréhension approfondie des textes. C’est donc une inquiétude légitime, formulée ici de manière volontairement alarmiste.


Toute la semaine à 7h33, retrouvez le Grand Témoin : un entretien qui prend le temps d’approfondir l’actualité locale, pour mieux comprendre les enjeux et les événements qui touchent votre territoire.
