Auteur : Thierry Taboy

Mais à quoi doivent ressembler les robots ?

par Sébastien Crozier , Thierry Taboy le 12 février 2025 Robot prétexte article
Les robots doivent-ils adopter des traits humains ou conserver une apparence purement fonctionnelle ? Derrière cette question en apparence anodine, Thierry Taboy, responsable de la commission technologie du Laboratoire de la République et Sébastien Crozier, Président CFE CGC chez Orange montrent comment s'entrelacent des enjeux psychologiques, technologiques et sociétaux majeurs.
Avec l'essor des robots et avatars pilotés par l'intelligence artificielle, une question s'impose : à quoi doivent-ils ressembler pour s'intégrer au mieux dans notre quotidien ? Doivent-ils adopter des traits humains pour être plus facilement acceptés, ou privilégier un design purement fonctionnel ? Derrière cette interrogation esthétique se cachent des enjeux psychologiques, culturels et technologiques majeurs. Déjà, Bernard Stiegler soulignait que la prolifération des technologies numériques et robotiques modifie profondément notre rapport au monde et aux autres. En imitant l'humain, les robots risquent d'altérer notre perception de nous-mêmes et de nos interactions, soulevant ainsi des questions éthiques sur leur intégration dans la société L'attrait de l'anthropomorphisme : entre confiance et illusion Notre tendance à attribuer des caractéristiques humaines aux objets (anthropomorphisme) joue un rôle clé dans l'acceptation des robots. Un visage, même schématique, suffit souvent à déclencher des interactions sociales. C'est ce qui explique pourquoi des robots humanoïdes apparaissent de plus en plus dans des environnements variés – hôtels, hôpitaux, aéroports ou écoles – où leur apparence familière facilite les échanges. D'autres études montrent que des robots inspirés du règne animal favorisent l'attachement émotionnel, notamment chez les enfants et les personnes âgées, en jouant un rôle de soutien psychologique. Mais cette acceptation n'est pas universelle. Au Japon, l'influence de l'animisme, qui attribue un esprit aux objets inanimés, favorise une relation plus naturelle avec les robots. En Occident, en revanche, ils suscitent souvent méfiance et inquiétude, notamment autour des questions d'emploi et de surveillance. Avec l'essor des avatars numériques et de l'intelligence artificielle générative, cette relation se complexifie encore. Certains assistants virtuels dotés d'un visage et d'une voix réaliste, comme Replika, créent une illusion de dialogue humain. Ces interactions immersives peuvent parfois franchir des frontières inattendues, générant des attachements émotionnels, voire des situations de dépendance affective.. A tel point qu'en 2023, Replika a supprimé la possibilité de participer à des conversations érotiques, ce qui a suscité des discussions sur le rôle de l'IA dans les interactions humaines. Lorsqu'un robot ou un avatar reproduit trop fidèlement les comportements humains, notre perception du réel peut se voir perturbée et accentuer l'isolement social en remplaçant des relations authentiques par des échanges artificielsEt c'est sans compter les enjeux en terme de capacité de désinformation.  L'efficacité avant tout ? Quand le fonctionnel prime Si l'apparence humaine séduit dans certains contextes, elle n'est pas toujours pertinente. Dans l'industrie, la logistique ou les infrastructures publiques, la conception des robots repose avant tout sur leur efficacité, leur coût et leur sécurité. Ici, le design fonctionnel prévaut : pas d'yeux expressifs ni de traits humains, mais une forme optimisée pour accomplir une tâche précise. L'anthropomorphisme peut s'évérer ici contre-productif, en complexifiant les interactions, détournant l'attention ou en créant des attentes inappropriées chez les utilisateurs. Ainsi, les robots utilisés dans les entrepôts logistiques, comme ceux d'Amazon Robotics, adoptent des designs minimalistes centrés sur l'optimisation des déplacements et la manipulation des objets, plutôt que sur l'imitation des gestes humains. Dans le domaine des infrastructures publiques, les robots de nettoyage autonomes ou les dispositifs de surveillance suivent également cette logique. Par exemple, le robot Spot de Boston Dynamics, utilisé pour l'inspection de sites industriels et la surveillance, privilégie une forme quadrupède inspirée du monde animal pour maximiser sa stabilité et sa capacité à évoluer sur des terrains complexes. En somme, si l'apparence humaine peut faciliter l'acceptation sociale des robots dans certains contextes, elle est souvent abandonnée au profit d'un design purement fonctionnel dans les domaines où la performance et la sécurité priment. Cependant, même dans ces environnements, une certaine dose d'« humanisation » peut améliorer l'expérience utilisateur. Par exemple, l'ajout de signaux visuels (LED indiquant une direction ou un état), de mouvements simplifiés ou de sons subtils peut permettre aux humains de mieux anticiper les actions des machines et d'éviter toute méfiance instinctive. Plutôt qu'une imitation parfaite de l'humain, l'enjeu est donc de créer des interactions claires et intuitives. L'ombre de la "vallée de l'étrange" Cette quête d'équilibre entre humanisation et fonctionnalité n'est pas nouvelle. Dans les années 1970, le chercheur japonais Masahiro Mori a décrit le phénomène de la vallée de l'étrange (Uncanny Valley), selon lequel un robot trop réaliste provoque un malaise, car son apparence est presque humaine... mais pas tout à fait. Sophia, le robot humanoïde de Hanson Robotics, illustre parfaitement ce paradoxe : son réalisme a autant impressionné que dérangé. Pour éviter cet écueil, de nombreux designers optent pour des formes hybrides. Plutôt que de copier l'humain à l'identique, ils misent sur des éléments subtils – mouvements de tête, variations lumineuses, inflexions de voix – qui suffisent à évoquer des émotions sans induire de confusion. Mais au fond, que projetons-nous sur ces machines ? En leur attribuant des traits humains, nous exprimons autant notre besoin d'empathie que nos craintes face à l'automatisation. Pourtant, plus nous repoussons les limites de ces technologies, plus il devient évident qu'un robot, aussi sophistiqué soit-il, reste avant tout un outil. A trop vouloir leur faire imiter l'humain, les robots sont facteurs d'altération de notre perception de nous-mêmes et des autres, posant des défis éthiques sur leur intégration dans la société. L'avenir de la robotique réside dès lors dans une conception qui équilibre intelligence artificielle et clarté d'interaction. Trouver ce juste milieu sera essentiel pour faire des robots et des avatars des alliés au service de l'humanité – et non des illusions qui brouillent notre perception du monde et de nous-mêmes.

À la recherche de l’identité perdue

par Marie-Victoire Chopin , Thierry Taboy le 10 octobre 2024 Santé_mentale_T_Taboy-M_V_Chopin_LAB
En cette Journée mondiale de la santé mentale, Thierry Taboy et Marie-Victoire Chopin abordent les défis psychologiques auxquels sont confrontés les jeunes aujourd'hui. Depuis deux ans, Marie-Victoire Chopin, docteur en psychologie, DMU Neurosciences, APHP Sorbonne Université, et Thierry Taboy, coordinateur de la commission technologique du Laboratoire de la République, mènent un combat contre les troubles identitaires exacerbés par le numérique.
Devant le miroir du matin, nous nous dévisageons, scrutant celui ou celle que nous sommes. Et nous choisissons celui ou celle que nous allons être. De la tenue que nous allons enfiler aux rôles que nous allons jouer en privé ou en public, tout relève d’un jeu paradoxal entre notre besoin de singularité et notre désir de reconnaissance. La sortie du paradoxe semble impossible: il faut que chacun de nos gestes traduise notre individualité, tout en la faisant accepter par les autres. Dans ces conditions, un avatar devient une version épurée de nous, répondant à ce paradoxe. Le concept de singularité, comme présenté par le sociologue Andreas Reckwitz, met en lumière la quête moderne de l'originalité et de l'unicité. Cette recherche de singularité affecte de nombreux aspects de la vie quotidienne, de la nourriture que nous mangeons à nos choix personnels. Reckwitz souligne que cette logique de particularité peut entraîner une crise de l'universalité. Qui apparaît dans ce reflet du miroir – l'explorateur des mondes virtuels, le professionnel impeccable, le séducteur des réseaux de rencontre ? Aujourd'hui, notre soi authentique semble fragmenté, dilué dans une marée d'avatars et de profils. Chaque compte social est une image déformée de nous ; mais comment ces reflets numériques façonnent-ils notre sentiment d'identité profonde ? La construction de l'identité personnelle, le jeu comme constante. Notre identité se façonne dès la tendre enfance, à travers les jeux et les rôles que nous incarnons en imitant le monde des adultes. Selon Winnicott, c'est dans le jeu que nous sommes véritablement libres de nous manifester. Erikson, lui, identifie l'identité comme un sentier parsemé de crises, chaque étape étant essentielle dans notre développement. Alors que nous grandissons, ces jeux évoluent, s'entrelacent avec les outils digitaux pour former de nouveaux masques, de nouvelles identités. L'identité est un concept complexe qui englobe à la fois des aspects objectifs et subjectifs. Objectivement, chaque individu est unique sur le plan génétique. Subjectivement, l'identité renvoie à la conscience de son individualité, de sa singularité et à une continuité dans le temps. Cet aspect est important non seulement pour le sujet lui-même mais aussi pour son entourage, qui attend cohérence et constance dans les comportements de l'individu.L'identité comprend diverses composantes telles que l'identité perçue par soi-même et par autrui, le sentiment de soi, l'image et la représentation de soi, l'estime de soi, la continuité personnelle, le soi intime versus le soi social, et le soi idéal versus le soi réel. Ces différents aspects contribuent à former une notion complexe d'identité. Ainsi, l‘identité subjective est profondément sociale. Le besoin de reconnaissance est souvent lié à des personnes ou des groupes de référence importants pour nous, où être reconnu signifie être apprécié et aimé. Cette reconnaissance est un facteur clé dans l'estime de soi et l'existence perçue. Le perfectionnisme est parfois une conséquence de ce besoin de reconnaissance et de validation par ces figures significatives. Comment rester soi au milieu de cette métamorphose ? Rogers interrogeait déjà l'influence terrifiante de voir nos multiples facettes se projeter dans un monde où la perception de soi s'en trouve fragmentée. Identités et numérique Sur les scènes des réseaux sociaux, nos existences se déclinent en multiples versions. Instagram immortalise nos moments les plus photogéniques, LinkedIn expose nos ambitions, et les sites de rencontre esquissent des séducteurs idéalisés. Les jeux multijoueurs nous permettent de devenir de vrais transformistes en relation avec nos projections de notre moi profond (genre, culture, langue..). La simplicité enfantine qui nous offre de créer nos propres « deepfakes» personnels élève cette curation de soi à un niveau vertigineux, brouillant la ligne entre réalité et représentation, authenticité et artifice. Sherry Turkle nous rappelait déjà en 2011 que ces technologies ne se limitent pas à être des moyens d'expression – elles modèlent notre identité même. Une vulnérabilité augmentée Pour celles et ceux déjà aux prises avec des troubles psychologiques, les espaces numériques et sociaux ne sont pas de simples distractions. Ils peuvent agir comme des révélateurs, intensifiant les symptômes de mal-être. John Suler a discuté de l'effet d'anonymat en ligne et comment le manque de repères tangibles peut mener à une altération de l'identité. Dans un univers où l’enveloppe physique s’efface au profit de l’avatar, il est essentiel d'offrir un accompagnement adapté, en particulier aux plus jeunes d’entre-nous.L'éducation numérique, la sensibilisation aux risques et un dialogue ouvert sur la santé mentale doivent être des priorités pour protéger et fortifier notre jeunesse face à ces défis modernes. Fragmentation de l'identité et risques psychologiques La diversité de nos "mois" numériques peut être source de confusion et de conflit interne. Elias Aboujaoude souligne la dangerosité de nos identités virtuelles séparées de notre réalité, qui peuvent mener à des affections psychologiques graves. Jean Twenge va plus loin en indiquant l'impact délétère de ce phénomène sur les adolescents, traduit par une augmentation de la dépression et de l'anxiété. Brené Brown, quant à elle, nous oriente vers l'authenticité et le courage d'être nous-mêmes, dans un monde qui met souvent l'accent sur la perfection. Et face à la dissonance entre le réel et le virtuel, Katherine Hayles questionnait dès 1999 la formation d'une schizophrénie posthumaine, où l'intégrité de l'individu est mise à rude épreuve). Dans le mirage numérique, nous sommes invités à renouer avec l'individu qui se dissimule derrière les avatars – celui qui respire, rêve, et aime réellement. Il est temps de se poser des questions essentielles sur notre identité et de la cultiver avec sincérité.Sommes-nous les auteurs de notre existence ou les acteurs d'un rôle scripté par d'autres ? Plaidoyer pour l'intégrité, nous lançons un appel à vivre authentiquement. Cherchons à établir notre identité sur des bases solides, stables, et véritablement nôtres. Résistons à la co-modification de soi et embrassons notre vraie nature dans ce théâtre d'avatars. Au fond, la personne que nous rencontrons dans le miroir sans fard, sans artifices, mérite notre attention la plus authentique et notre affection la plus vraie. Puissions nous tous vivre en concordance avec notre âme, dans un univers constamment remis en question par la technologie et les apparences.

Intelligence artificielle : la culture numérique est cruciale pour relever les défis de l’IA

par Thierry Taboy le 28 août 2023
L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ? Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ). ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite. Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente. Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus. Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction. Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement". Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ? Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne. Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer. Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ? Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer. Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen. Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ? Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage. Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits. Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs." L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.  Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire