Étiquettes : Technologie

Mais à quoi doivent ressembler les robots ?

par Sébastien Crozier , Thierry Taboy le 12 février 2025 Robot prétexte article
Les robots doivent-ils adopter des traits humains ou conserver une apparence purement fonctionnelle ? Derrière cette question en apparence anodine, Thierry Taboy, responsable de la commission technologie du Laboratoire de la République et Sébastien Crozier, Président CFE CGC chez Orange montrent comment s'entrelacent des enjeux psychologiques, technologiques et sociétaux majeurs.
Avec l'essor des robots et avatars pilotés par l'intelligence artificielle, une question s'impose : à quoi doivent-ils ressembler pour s'intégrer au mieux dans notre quotidien ? Doivent-ils adopter des traits humains pour être plus facilement acceptés, ou privilégier un design purement fonctionnel ? Derrière cette interrogation esthétique se cachent des enjeux psychologiques, culturels et technologiques majeurs. Déjà, Bernard Stiegler soulignait que la prolifération des technologies numériques et robotiques modifie profondément notre rapport au monde et aux autres. En imitant l'humain, les robots risquent d'altérer notre perception de nous-mêmes et de nos interactions, soulevant ainsi des questions éthiques sur leur intégration dans la société L'attrait de l'anthropomorphisme : entre confiance et illusion Notre tendance à attribuer des caractéristiques humaines aux objets (anthropomorphisme) joue un rôle clé dans l'acceptation des robots. Un visage, même schématique, suffit souvent à déclencher des interactions sociales. C'est ce qui explique pourquoi des robots humanoïdes apparaissent de plus en plus dans des environnements variés – hôtels, hôpitaux, aéroports ou écoles – où leur apparence familière facilite les échanges. D'autres études montrent que des robots inspirés du règne animal favorisent l'attachement émotionnel, notamment chez les enfants et les personnes âgées, en jouant un rôle de soutien psychologique. Mais cette acceptation n'est pas universelle. Au Japon, l'influence de l'animisme, qui attribue un esprit aux objets inanimés, favorise une relation plus naturelle avec les robots. En Occident, en revanche, ils suscitent souvent méfiance et inquiétude, notamment autour des questions d'emploi et de surveillance. Avec l'essor des avatars numériques et de l'intelligence artificielle générative, cette relation se complexifie encore. Certains assistants virtuels dotés d'un visage et d'une voix réaliste, comme Replika, créent une illusion de dialogue humain. Ces interactions immersives peuvent parfois franchir des frontières inattendues, générant des attachements émotionnels, voire des situations de dépendance affective.. A tel point qu'en 2023, Replika a supprimé la possibilité de participer à des conversations érotiques, ce qui a suscité des discussions sur le rôle de l'IA dans les interactions humaines. Lorsqu'un robot ou un avatar reproduit trop fidèlement les comportements humains, notre perception du réel peut se voir perturbée et accentuer l'isolement social en remplaçant des relations authentiques par des échanges artificielsEt c'est sans compter les enjeux en terme de capacité de désinformation.  L'efficacité avant tout ? Quand le fonctionnel prime Si l'apparence humaine séduit dans certains contextes, elle n'est pas toujours pertinente. Dans l'industrie, la logistique ou les infrastructures publiques, la conception des robots repose avant tout sur leur efficacité, leur coût et leur sécurité. Ici, le design fonctionnel prévaut : pas d'yeux expressifs ni de traits humains, mais une forme optimisée pour accomplir une tâche précise. L'anthropomorphisme peut s'évérer ici contre-productif, en complexifiant les interactions, détournant l'attention ou en créant des attentes inappropriées chez les utilisateurs. Ainsi, les robots utilisés dans les entrepôts logistiques, comme ceux d'Amazon Robotics, adoptent des designs minimalistes centrés sur l'optimisation des déplacements et la manipulation des objets, plutôt que sur l'imitation des gestes humains. Dans le domaine des infrastructures publiques, les robots de nettoyage autonomes ou les dispositifs de surveillance suivent également cette logique. Par exemple, le robot Spot de Boston Dynamics, utilisé pour l'inspection de sites industriels et la surveillance, privilégie une forme quadrupède inspirée du monde animal pour maximiser sa stabilité et sa capacité à évoluer sur des terrains complexes. En somme, si l'apparence humaine peut faciliter l'acceptation sociale des robots dans certains contextes, elle est souvent abandonnée au profit d'un design purement fonctionnel dans les domaines où la performance et la sécurité priment. Cependant, même dans ces environnements, une certaine dose d'« humanisation » peut améliorer l'expérience utilisateur. Par exemple, l'ajout de signaux visuels (LED indiquant une direction ou un état), de mouvements simplifiés ou de sons subtils peut permettre aux humains de mieux anticiper les actions des machines et d'éviter toute méfiance instinctive. Plutôt qu'une imitation parfaite de l'humain, l'enjeu est donc de créer des interactions claires et intuitives. L'ombre de la "vallée de l'étrange" Cette quête d'équilibre entre humanisation et fonctionnalité n'est pas nouvelle. Dans les années 1970, le chercheur japonais Masahiro Mori a décrit le phénomène de la vallée de l'étrange (Uncanny Valley), selon lequel un robot trop réaliste provoque un malaise, car son apparence est presque humaine... mais pas tout à fait. Sophia, le robot humanoïde de Hanson Robotics, illustre parfaitement ce paradoxe : son réalisme a autant impressionné que dérangé. Pour éviter cet écueil, de nombreux designers optent pour des formes hybrides. Plutôt que de copier l'humain à l'identique, ils misent sur des éléments subtils – mouvements de tête, variations lumineuses, inflexions de voix – qui suffisent à évoquer des émotions sans induire de confusion. Mais au fond, que projetons-nous sur ces machines ? En leur attribuant des traits humains, nous exprimons autant notre besoin d'empathie que nos craintes face à l'automatisation. Pourtant, plus nous repoussons les limites de ces technologies, plus il devient évident qu'un robot, aussi sophistiqué soit-il, reste avant tout un outil. A trop vouloir leur faire imiter l'humain, les robots sont facteurs d'altération de notre perception de nous-mêmes et des autres, posant des défis éthiques sur leur intégration dans la société. L'avenir de la robotique réside dès lors dans une conception qui équilibre intelligence artificielle et clarté d'interaction. Trouver ce juste milieu sera essentiel pour faire des robots et des avatars des alliés au service de l'humanité – et non des illusions qui brouillent notre perception du monde et de nous-mêmes.

Orléans : Numérique et droits : entre innovation et régulation, quels défis pour nos libertés ?

par L'antenne du Loiret le 20 janvier 2025 Orléans_Lab
Vendredi 17 janvier, l’antenne du Loiret du Laboratoire de la République, en collaboration avec les Jeunes Européens de France, a accueilli une table ronde passionnante intitulée « Numérique et droits fondamentaux, quel équilibre ? ». Cet événement a réuni un public varié, composé de citoyens engagés et d’étudiants, autour d’un sujet d'actualité : les défis et opportunités des innovations numériques vis-à-vis de nos libertés fondamentales.
Fouad Eddazi, maître de conférence en droit du numérique et des libertés fondamentales, a présenté une analyse juridique approfondie. Il a souligné les tensions entre le développement technologique et la protection des droits fondamentaux, notamment en matière de vie privée et de liberté d’expression. Selon lui, le cadre législatif actuel doit évoluer pour répondre à l'émergence de nouvelles problématiques liées à l’intelligence artificielle et aux données massives. Patrick Faure-Bignolas, professionnel spécialisé en intelligence artificielle, a apporté une vision pratique et technique. Il a discuté des implications concrètes des algorithmes dans la vie quotidienne, en insistant sur la nécessité d’une régulation équilibrée pour prévenir les dérives tout en encourageant l’innovation. Les échanges, animés par les organisateurs, ont mis en lumière plusieurs problématiques majeures : La protection de la vie privée dans un monde hyperconnectéLes intervenants ont discuté des défis liés à la collecte massive de données personnelles et des risques pour la vie privée, particulièrement dans le cadre de l’utilisation des technologies comme les objets connectés et les réseaux sociaux. Les droits de propriété intellectuelle à l’ère du big dataL’essor des données massives pose des questions inédites sur la manière de protéger les créations intellectuelles tout en garantissant un accès équitable aux innovations numériques. La régulation de l’intelligence artificielleUn consensus s’est dégagé sur la nécessité d’une régulation adaptée, permettant de prévenir les abus tout en favorisant un développement éthique et responsable des technologies.

Jeudi 23 mai : Vers quelle destinée numérique ?

le 14 mai 2024 Visuel_Wagon
Jeudi 23 mai, en exclusivité le Wagon Paris organise la première conversation autour du chapitre dédié au numérique et à l’IA. Jean-Michel Blanquer, Nicolas Marescaux, Marin de Nebehay et Roxana Rugina Friess nous feront l’honneur de leur présence. Vous pourrez poser toutes vos questions à nos intervenant(e)s autour d’un cocktail proposé par la Distillerie de Paris.
Le Laboratoire de la République a récemment fait paraître un ouvrage collectif : "Europe : maîtriser notre avenir. Les voies du renouveau ». Confronté à une révolution numérique, l’équilibre des puissances mondiales se trouve bouleversé. Nous avons moins de dix ans pour réinventer notre modèle social, économique et politique pour protéger nos citoyens. 10 ans, 10 défis clés à relever pour une reprise en main durable de notre destin à l'ère du numérique. Pour cette conversation d’exception, nous recevrons Monsieur l'ancien ministre et président du Laboratoire Jean-Michel Blanquer, qui ouvrira la table ronde. Nos invités exceptionnels réunis autour de la table seront :  Marin de Nebehay : Co-rédacteur du chapitre sur le numérique, son domaine d’action porte sur la stratégie et l’influence dans le secteur de la Green Tech. Son regard de publiciste et son expérience dans les affaires publiques permettent une lecture transversale des enjeux numériques actuels. Il plaide pour que le numérique soit conçu comme une révolution politique, avant d’être pensé comme une révolution économique. Nicolas Marescaux, Directeur adjoint Réponses Besoins Sociétaires et Innovation du groupe MACIF. Membre expert à la Commission Européenne au sein du groupe “European financial data space”, Nicolas apportera une perspective européenne et économique aux échanges.  Roxana Rugina Friess, Secrétaire Générale d'Impact AI, un think & do tank de référence en France qui regroupe 60 grandes entreprises, startups, associations et écoles autour de l'IA éthique. Depuis 5 ans, Roxana coordonne des publications sur la gouvernance de l’IA et pour favoriser l’intégration de pratiques d’IA responsable dans les entreprises.  Quand ? Jeudi 23 avril, à 19h Où ? Le Wagon Paris 16 villa Gaudelet , 75011 Paris Participation libre, inscription obligatoire Pour s'inscrire, cliquez ici

Mardi 2 avril : L’impact du numérique sur la jeunesse

par L'antenne d'Assas le 25 mars 2024 visuel_assas
Mardi 2 avril, l'antenne d'Assas vous invite à sa prochaine table ronde liée à l'impact du numérique sur la jeunesse avec de nombreux experts : Marie-Victoire Chopin, Orianne Ledroit, Vincent Paul-Petit, Thierry Taboy et Serge Tisseron.
Le numérique impacte la jeunesse. Il transforme profondément nos modes de vie et de pensée. Les nouvelles technologies influencent considérablement nos capacités cognitives, en modifiant nos schémas de concentration, de mémorisation et de réflexion. Elles altèrent également notre rapport au temps, en accélérant nos interactions et en créant une culture de l'immédiateté. En ce qui concerne l'apprentissage, le numérique offre des outils variés mais peut aussi susciter des défis liés à la surcharge d'informations et à la capacité de discernement. Enfin, sur le plan social, les technologies numériques redéfinissent les relations interpersonnelles, transformant les modes de communication et d'interaction, tantôt enrichissant la vie en société, tantôt la complexifiant. Marie-Victoire Chopin : docteure en psychopathologie, MBA et consultante pour le cabinet Technologia Orianne Ledroit : déléguée générale d’EdTech France, ancienne conseillère du ministre en charge des impacts sociaux, territoriaux et environnementaux du numérique Vincent Paul-Petit : maire de Seine-Port, commune située en Seine-et-Marne Thierry Taboy : responsable RSE du Groupe Orange en charge de la prospective opérationnelle à court/moyen terme et perspectives sur les enjeux entre société et numérique, responsable de la commission Défi technologique du Laboratoire de la République Serge Tisseron : psychiatre, docteur en psychologie habilité à diriger des recherches, et membre de l'Académie des technologies. Auteur de nombreux ouvrages, il a été co-rédacteur de l’avis de l’Académie des sciences L’enfant et les écrans (2013). Il a reçu la même année à Washington un Award du FOSI (Family Online Safety Institute) pour l’ensemble de ses travaux sur les jeunes et les écrans Quand ? Mardi 2 avril, 20h Où ? Université Panthéon-Assas / Centre Assas 92, rue d'Assas, 75006 Paris Participation libre, inscription obligatoire S'inscrire à l'évènement

Empreinte environnementale du numérique : comment la réduire ?

par Jean-Benoît Besset le 17 janvier 2024
L'empreinte environnementale du numérique fait référence à l'impact écologique de l'utilisation croissante des technologies de l'information et de la communication sur l'environnement. L’obsolescence rapide des équipements, l’utilisation des ressources naturelles, la gestion des déchets électroniques, le recyclage sont des enjeux associés à cette empreinte environnementale. Réduire l'empreinte environnementale du numérique implique la sensibilisation des consommateurs, le développement de technologies plus durables, des pratiques commerciales responsables et des politiques gouvernementales appropriées. Entretien avec Jean-Benoît Besset, Directeur RSE et de la Transition Environnement et Énergie du Groupe Orange, pour nous éclairer sur ces enjeux.
Jean-Benoît Besset, Directeur RSE et de la Transition Environnement et Énergie du Groupe Orange, commence par définir l'empreinte environnementale du numérique, soulignant comment nos activités en ligne, de la navigation sur Internet à l'utilisation des réseaux sociaux, contribuent à cette empreinte souvent invisible. Il aborde ensuite les principales sources d'émissions de carbone dans le domaine numérique, mettant en lumière l'importance de prendre en compte les centres de données, la fabrication d'appareils électroniques et d'autres éléments essentiels de l'infrastructure numérique. Le discours se tourne également vers des solutions potentielles pour réduire l'empreinte environnementale du numérique. Il explore des stratégies individuelles et collectives, ainsi que des initiatives technologiques et industrielles visant à rendre le numérique plus durable. https://youtu.be/coMjhZMBAvQ

Intelligence artificielle : la culture numérique est cruciale pour relever les défis de l’IA

par Thierry Taboy le 28 août 2023
L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ? Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ). ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite. Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente. Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus. Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction. Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement". Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ? Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne. Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer. Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ? Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer. Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen. Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ? Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage. Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits. Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs." L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.  Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire