L'usage de l'intelligence artificielle est de plus en plus répandu en entreprise par les professionnels. Mais sait-on vraiment les utiliser ? L'erreur est de les croire totalement fiables et de ne pas vérifier les données qu'elles fournissent.
En entreprise, de plus en plus de salariés s’appuient sur l’intelligence artificielle. Fait-elle perdre ou gagner du temps ? Permet-elle de prendre de meilleures décisions ? Et s’il fallait avant tout se former à ces nouveaux outils ?
"L’intelligence artificielle, c’est une discipline scientifique qui a 80 ans, explique Laurence Devillers, professeure en IA et en informatique appliquée aux sciences sociales à la faculté des Lettres de Sorbonne Université, chercheuse au CNRS et présidente de la Fondation Blaise-Pascal. Ce n’est pas une chose, c’est un ensemble d’algorithmes."
Les deux catégories d’algorithmes les plus connus sont les IA prédictives, qui permettent par exemple la reconnaissance facile ou la reconnaissance des cancers précoces. Les IA dites génératives sont celles qui répondent aux question qu’on leur pose, comme ChatGPT, "nourri à 95% de données en anglais" ou sa version française, Le Chat.
Le principe de l'IA est d’imiter l’intelligence humaine. C’est ce que rappelait d’ailleurs le Vatican dans sa note "Antiqua et nova", du 28 janvier 2025. "Une IA elle vous répond alors qu’elle ne comprend absolument rien au sujet dont elle vous parle !" explique le Père Éric Charmetant, jésuite et philosophe, enseignant aux Facultés Loyola Paris.
Une IA ce n’est donc "pas intelligent", insiste Laurence Devillers, auteure de "L'IA, ange ou démon ? Le nouveau monde de l'invisible" (éd. Cerf, 2025) . "Nous sommes, nous, l’intelligence de ces machines." Machines qui n’ont "ni intention, ni émotion, ni valeur social’, ni valeur morale, ni valeur spirituelle". Et ce sont nous, les humains qui "augmentons cette machine" bien plus que celle-ci n’augmente les humains.
Si l'IA fascine ou effraie, c'est parce qu’elle semble si bien imiter l’humain. Paradoxalement, puisque c’est une machine, on attend d’elle une fiabilité totale. Or, "même avec le dernier modèle 4.1 de chatGPT, témoigne Éric Charmetant, si on lui dit : Vérifie tes sources, il invente des références."
Comment fonctionne l’IA ? Pourquoi ChatGPT se trompe parfois ? Si on l’interroge sur un point précis, par exemple un mot de la Bible, "si ce document fait partie du corpus d’apprentissage, on va le retrouver, décrit Laurence Devillers. Si vous avez dans votre corpus d’apprentissage, plein de gens qui ont parlé de la Bible, avec des fake news, vous risquez de vous retrouver avec une production qui combine en fait tous ces textes."
Erreurs ou pas, l’IA est un univers mathématique, qui n’a "ni intention, ni vision du monde, sans aucune intelligence". Et comme elle ne peut pas ne pas répondre, l’IA générative peut en venir à fournir es contenus absurdes comme dire que les vaches pondent.
L’IA est un danger si on "personnifie" la machine, si on "l’anthropomorphise", prévient Laurence Devillers. À trop lui accorder "des connaissances, des affects, des choix moraux", on lui prête cette capacité de nous remplacer. Il y a un enjeu éducatif gigantesque. Comment le dit le jésuite, "le danger, c’est si on utilise ça depuis le départ pour entre guillemets penser à sa place".
"Ce sur quoi j’essaie d’attirer nos étudiants, c’est d’avoir le souci de la vérification." Jean-Marc Moschetta, théologien, enseignant à l’Institut catholique de Toulouse et professeur d’aérodynamique à ISAE-SUPAERO, est l'auteur de "Jésus viendra-t-il aussi sauver les machines ?" (éd. Mame, 2021). Il décrit les risques liés à l'usage de l'IA dans le domaine militaire. "On a des exemples documentés et même malheureusement assez récents qui sont la désignation des cibles dans la bande de Gaza par l’armée israélienne. On a pu montrer que l’effort de déterminer des cibles au lendemain du 7-Octobre a été décuplé voire multiplié par vingt ou cinquante grâce aux programmes d’IA." Or, dans le contexte pressant de la guerre, il arrive que "toutes ces cibles ne sont pas soigneusement examinées, vérifiées".
Dans le domaine de la médecine, un jeune praticien manquant d’expérience sera tenté de s’en remettre à l’intelligence artificielle. Par exemple dans la détection du cancer du sein : "Les médecins qui sortent de l’école, qui n’ont pas cette expérience devant les machine, observe Laurence Devillers, vont suivre la machine, demander des biopsies, qui vont stresser les patientes, et qui conduite à dépense énorme dans la société."
Il y a un donc un enjeu primordial de formation des utilisateurs de l’IA et de les sensibilisation à leur fonctionnement et à leur taux d’erreur. Quitte à adopter de nouvelles méthodes de travail. "Je serai plus inquiet quand on aura réduit le taux d’erreur des IA, les erreurs obligent à faire effort de vérification !"
La bioéthique en podcast. PMA, GPA, tri embryonnaire mais aussi euthanasie, soins palliatifs... de ses tous débuts à son extrême fin, la vie ne cesse d’être interrogée. Une émission qui décrypte toutes les questions éthiques que posent les avancées de la science et de la loi.
Un podcast en partenariat avec les Facultés Loyola Paris.
Suivez l’actualité nationale et régionale chaque jour
RCF est une radio associative et professionnelle.
Pour préserver la qualité de ses programmes et son indépendance, RCF compte sur la mobilisation de tous ses auditeurs. Vous aussi participez à son financement !