L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ?
Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ).
ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite.
Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente.
Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus.
Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction.
Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement".
Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ?
Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne.
Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer.
Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ?
Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer.
Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen.
Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ?
Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage.
Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits.
Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs."
L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.
Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.