Faut-il poser des limites à l’intelligence artificielle ?
L’intelligence artificielle (IA) est partout : dans nos téléphones, nos voitures, nos entreprises et même nos écoles. ChatGPT, Gemini ou encore les assistants vocaux transforment notre rapport au travail, à la connaissance et à la créativité. Mais jusqu’où peut-on déléguer nos décisions à des machines ?
© FreepikCapable d’analyser des milliards de données en un instant, de rédiger des textes, de diagnostiquer des maladies ou de prédire des comportements, elle transforme radicalement notre rapport au travail, à la connaissance et à la créativité. Certains y voient un levier de progrès inégalé, d’autres une menace pour nos libertés et notre avenir collectif.
L’IA, omniprésente mais controversée
"L’intelligence artificielle fait désormais partie de nos vies. Rien que le GPS ou les plateformes de recommandations musicales utilisent de l’IA. Depuis 2021-2022, avec l’émergence des IA génératives, c’est devenu accessible à tous, et non plus réservé aux professionnels ou aux élites", selon Jérôme Béranger, docteur en éthique de l'IA. Il évoque une "révolution d’usage technologique" qui touche progressivement toutes les sphères de la société, impactant nos comportements privés et professionnels. Au-delà de sa présence, l’IA soulève des questions sur notre rapport au savoir et à l’autonomie. Jérôme Béranger souligne que "l’IA n’est pas une boîte magique. Pour qu’elle soit pertinente, il faut maîtriser son secteur d’activité et rédiger des prompts détaillés. Sinon, on se met en concurrence avec elle et on risque de perdre notre plus-value humaine".
L’intelligence artificielle fait désormais partie de nos vies.
Certains auditeurs partagent ces inquiétudes. Josette, auditrice fidèle de l'émission Je pense donc j'agis, confie que : "ces jeunes qui utilisent l’IA pour tout risquent de perdre l’habitude de réfléchir par eux-mêmes. L’intelligence personnelle, il faut continuer à la développer". Pour Jérôme Béranger, "il est essentiel de conserver notre libre-arbitre et notre sens critique. L’IA n’a pas de sens, pas de ressenti, elle ne fait que calculer".
Éthique et limites : l’urgence d’encadrer
L’intelligence artificielle n’est pas sans risques. Elle peut accentuer l’individualisme au sein des entreprises via le phénomène de Shadow IA, où les salariés utilisent des IA sans en informer leurs collègues, créant des silos et fragilisant la performance collective. Les questions géopolitiques sont également préoccupantes : drones militaires, systèmes d’armes létales autonomes (SALA) et souveraineté technologique deviennent des enjeux concrets. Jérôme Béranger explique que "même s’il existe des moratoires, la recherche continue dans les laboratoires privés. La régulation internationale est encore insuffisante face à la vitesse de développement des IA".
L'IA n’a pas de conscience et c’est à nous de lui donner du sens.
Pour limiter les dérives, Jérôme Béranger préconise l’ethics-by-design : "il faut concevoir l’IA avec un cadre éthique, réglementaire et sécuritaire dès le départ. L’IA doit agir pour le bien commun, respecter le libre-arbitre et être supervisée par l’humain". Chez Goodalgo, il travaille à la labellisation éthique des IA et à la rédaction de chartes, comme pour le festival de films réalisés par IA en PACA, où la première charte éthique du cinéma est en cours. L’environnement est un autre champ à considérer. L’IA est énergivore et a un fort impact carbone. "On peut cependant intégrer l’écologie dès la conception, en optimisant la consommation d’énergie et la soutenabilité des data centers", ajoute Béranger.
L’IA doit agir pour le bien commun, respecter le libre-arbitre et être supervisée par l’humain.
Une révolution culturelle à accompagner. Selon le spécialiste, la question n’est pas seulement technique ou juridique, mais aussi culturelle. “Nous sommes dans une révolution anthropologique. L’IA impacte individuellement, collectivement et même géopolitiquement. L’enjeu est de préserver le sens, la réflexion et l’humanité face à ces machines ultra-spécialisées", raconte-t-il. “L’IA reste un outil. Elle n’a pas de conscience et c’est à nous de lui donner du sens. Il est vital de poser des limites, non pour freiner l’innovation, mais pour protéger l’homme, la société et notre planète.”


Cette émission interactive présentée par Melchior Gormand est une invitation à la réflexion et à l’action. Une heure pour réfléchir et prendre du recul sur l’actualité, et pour agir, avec les témoignages d’acteurs de terrain pour se mettre en mouvement et s’engager dans la construction du monde de demain.
Intervenez en direct au 01 56 56 44 00, dans le groupe Facebook Je pense donc j'agis ou écrivez à direct@rcf.fr




