Le mardi 2 avril, l'antenne d'Assas a accueilli une table ronde passionnante sur l'impact du numérique sur la jeunesse. Cette thématique, d'une grande actualité, a suscité un vif intérêt auprès du public et a réuni un panel d'intervenants de renom.
L’événement s’est centré autour du temps d’écran, de l’impact du numérique sur l’éducation et du futur rôle des intelligences artificielles dans notre société.
La table ronde a été animée par des experts de divers horizons, offrant ainsi une perspective variée sur la question. Parmi les intervenants figuraient Marie-Victoire Chopin, docteur en psychologie et MBA, rattachée au DMU Neurosciences, APHP Sorbonne Université, ainsi qu’Orianne Ledroit, responsable de cours du master « digital humanities » de Sciences-Po Paris et déléguée générale de EdTech France.
Vincent Paul-Petit, maire de Seine-Port, a également apporté son point de vue en tant que représentant local, mettant en lumière les défis spécifiques rencontrés au niveau communal en lien avec l’évolution numérique.
Thierry Taboy, responsable de l’impact du numérique sur la société et de l’impact de la société sur les tendances du numérique au sein du Groupe Orange, a partagé son expertise sur les perspectives à court et moyen terme des enjeux entre société et numérique, tout en évoquant les travaux de la commission Défi technologique du Laboratoire de la République.
Serge Tisseron, psychiatre et membre de l’Académie des technologies, a enrichi les discussions par ses connaissances approfondies sur les effets psychologiques et comportementaux des écrans chez les jeunes.
Les échanges ont été riches et animés, couvrant un large éventail de sujets tels que la surcharge d’informations, les défis éducatifs, les nouvelles formes d’interaction sociale et les enjeux de santé mentale liés à l’utilisation intensive des technologies numériques.
En conclusion, cette table ronde a offert une plateforme stimulante pour explorer les complexités de l’impact du numérique sur la jeunesse. Les perspectives partagées par les intervenants ont permis de mieux comprendre les défis et les opportunités associés à cette révolution numérique, tout en mettant en lumière la nécessité d’une approche réfléchie et équilibrée pour accompagner les jeunes dans ce monde en constante évolution.
Mercredi 19 avril, l'antenne d'Assas a organisé sa première table ronde sur l'intelligence artificielle, les nouveaux médias et leur impact sur la démocratie. Nathalie Sonnac, ancienne membre du CSA, David Lacombled, président de "La villa numeris" et la juriste Laure-Alice Bouvier sont intervenus.
I. Quelles conséquences l'intelligence artificielle a-t-elle à ce jour sur les médias et la démocratie ?
A) De nouveaux usages des médias
Une nouvelle ère de transition numérique se présente pour les médias, qui doivent se conformer à de nouveaux standards et se numériser, sans quoi ils risquent de disparaître. Or les entreprises du numérique, bien qu’elles soient des entreprises privées, ont une empreinte grandissante sur l’espace public. Faut-il ainsi limiter l’influence de ces patrons qui n’ont pas de légitimité démocratique ?
Du fait du passage en ligne de nombreux médias, ces derniers sont de moins en moins verticaux à l’égard de la diffusion d'informations. La parole du journaliste perd ainsi en crédibilité par rapport à la parole de l’amateur. Sur nombre de nouveaux médias, en particulier les médias gratuits, en ligne et en réseaux, utilisant l’intelligence artificielle à travers leurs algorithmes d’accès à l’information, un article de journaliste et un article amateur ne sont en effet plus hiérarchisés. Chez les 15-34 ans, les réseaux sociaux sont ainsi la première source d’information, devant les journaux télévisés, papiers et la radio.
Amplifiés par cette totale liberté de publication, ainsi que par la caisse de résonance offerte par les réseaux, les discours de haine, de complotisme et la fausse information deviennent une préoccupation majeure. Un remède, bien que partiel, à la circulation de fausses informations serait de surveiller le comportement des personnes âgées qui statistiquement font circuler le plus ce type d’information, car cette population manque en général de recul face aux dérives des nouvelles technologies. La véracité des informations diffusées sur ces nouveaux médias est donc primordiale à vérifier, afin que les utilisateurs ne se détournent pas de ces réseaux qu’ils pourraient trouver trop “sales” (D. Lacombled), se dirigeant alors vers des sources d’information davantage biaisées qui ne feraient qu'accroître leur désinformation. Veillons à ce que les réseaux sociaux servent à “ouvrir l’appétit d’information” (D. Lacombled) sans en devenir la seule source.
B) Un nouveau modèle économique pour les médias
Le modèle économique médiatique a été totalement bouleversé par l'émergence des nouveaux médias. Ces derniers suivent un modèle économique dit “de plateforme”, selon lequel le média devient l’intermédiaire entre le consommateur et l’annonceur. D’une part, la plateforme médiatique met une vaste source d’information gratuite à la disposition du consommateur contre la collecte de ses données personnelles. D’autre part, elle met à disposition des emplacements publicitaires pour l’annonceur contre une rémunération. Ainsi dans ce modèle les effets de réseau avantagent le média le plus populaire (“winner-takes-all effect”), conduisant à des quasi-monopoles médiatiques. Cette situation monopolistique engendre des hausses de prix, une baisse de qualité de l’information, voire une certaine influence politique de certains nouveaux médias.
Certains réseaux sociaux sont également en passe d’adopter des sources de revenu plus diverses, provenant du consommateur et non seulement de l’annonceur. Citons Twitter depuis sa reprise par Elon Musk, qui fait payer le “tick” bleu de certification ouvrant son accès au plus grand nombre, au détriment des médias qui utilisaient ce symbole comme gage d’authenticité et de validation, comme le New York Times.
C) Un risque démocratique causé par une nouvelle répartition des pouvoirs
L’intelligence artificielle possède des “conséquences démocratiques surpuissantes” (N. Sonnac) notamment en ce qui concerne la circulation d’informations. En effet, tandis que l’espace médiatique s'élargit, les pouvoirs se concentrent ce qui menace le pluralisme des opinions. Les nouveaux médias rivalisent de puissance avec les Etats, comme l’illustre leur capitalisation boursière : la capitalisation des GAFAM fluctue aux alentours des 7000 Milliards d’euros largement supérieure au PIB Français d’environ 3000 Milliards d’euros. Ainsi, en collectant toujours davantage de données sur les utilisateurs, les nouveaux médias sont capables de fournir des informations clés en politique, comme le scandale de Cambridge Analytica l'a mis en lumière. En effet, l’intelligence artificielle est arrivée à un tel niveau de précision qu’elle prédit parfois mieux le comportement d’un individu que l’individu lui-même.
Biaisant également l’accès à l'information à travers leurs algorithmes, les nouveaux médias rendent la diffusion d’information pertinente plus ardue, ce qui n’est pas sans conséquence démocratique. Cela s’illustre chez les jeunes, qui souffrent d’une méconnaissance politique due à leur désinformation partielle, et dont l’abstention ne cesse d’augmenter.
Enfin, l’utilisation de l’intelligence artificielle dans le domaine de la sécurité s’avère être un enjeu démocratique de taille notamment en ce qui concerne l'essor de l’utilisation de caméras biométriques. Ces dernières sont déployées pour des raisons de sécurité des populations, mais font débat pour leur utilisation en Chine et leur mise en place lors des jeux olympiques à Paris. La présence humaine demeure ainsi une nécessité pour obtenir la confiance des usagers lors de l’utilisation d’un algorithme. Parcoursup, qui fait régulièrement l’objet de critiques en raison de l’utilisation d’un algorithme pour déterminer l’avenir des lycéens, en est une juste illustration.
II. Quelles pistes de réponse apporter à ces dangers ?
A) Une réglementation de l’immatériel
“L’intelligence artificielle remet en cause tous les droits” (L.A. Bouvier), rendant sa réglementation nécessaire bien qu’ardue en raison de son caractère disruptif. L’Union Européenne, place majeure dans la défense des droits humains et de la presse, doit donc s’emparer du sujet, ce qu’elle a entamé à juste titre. Premièrement, la principale législation européenne à ce sujet, le RGPD, qui réglemente la collecte et le traitement des données, s’applique depuis 2018 et permet de sécuriser les données des utilisateurs ainsi qu’un panel plus vaste d’actifs tels que les NFT. Deuxièmement, l’ “Artificial Intelligence Act”, proposé en avril 2021 par la Commission européenne, hiérarchise de manière plus poussée les plateformes médiatiques, permettant d’agir de manière graduelle selon le risque que la plateforme et ses algorithmes présentent.
Cependant, l’intelligence artificielle, qui se contente de répliquer ce qu’elle connaît, possède un fort biais dont les conséquences ne sont pas encore mesurées. Réglementer et atténuer ce biais semble difficile à ce jour, car les algorithmes développés sont très souvent gardés secrets à des fins concurrentielles. Ainsi, le problème se pose dans le métaverse, dans lequel il s’agit de réguler des éventuels comportements qui seraient répréhensibles hors de ce réseau, tel qu’un biais raciste induit par l’algorithme.
Les démocraties ont donc un rôle important à jouer afin de disposer des ressources et moyens nécessaires pour contrôler cette technologie. Tandis que la quantité de données collectées augmente de façon exponentielle, une majorité des données européennes est pourtant hébergée par les serveurs des GAFAM, sur lesquels nous n’avons que peu de contrôle. La question de la réglementation de l'intelligence artificielle est ainsi trop souvent traitée de manière locale au niveau européen, tandis que le sujet est bien plus étendu et nécessiterait une réglementation mondiale.
B) Adapter l'ensemble de l'environnement réglementaire
Plus largement, l'ensemble de l’environnement réglementaire, hérité de plusieurs siècles, doit s’adapter à marche forcée aux disruptions de l'intelligence artificielle et des nouveaux médias. L’environnement réglementaire fiscal est souvent impuissant face aux montages financiers des nouveaux réseaux. Les états cherchent la juste balance entre des taxes proportionnées et un maintien de l’innovation. Mais les évolutions des législateurs sont inertielles, de même que la jurisprudence qui évolue lentement. Ainsi, les possibles failles que l’intelligence artificielle pourrait trouver dans notre système réglementaire risquent de persister. Par exemple, l’intelligence artificielle pourrait servir à générer gratuitement des montages fiscaux à quiconque le demande, rendant l’administration fiscale bien impuissante face à cela. De façon équivalente, comment définir juridiquement la responsabilité d’une voiture autonome lors d’un accident ? Comment assurer le respect de la RGPD lorsque les données sont disséminées dans l’espace numérique ? Toutes ces questions nécessitent une adaptation de la législation, sans quoi le progrès technique ne peut être mis en pratique, comme nous le voyons actuellement avec les voitures autonomes dont la maturité de la technologie précède celle du cadre réglementaire.
C) L’enjeu crucial de la formation
Afin d’accorder “l’orchestre pas toujours symphonique” (D. Lacombled) que représente l'intelligence artificielle et son utilisation dans les nouveaux médias, l’éducation est une nécessité. D’une part, les acteurs du cadre réglementaire, des ministères à l’ARCOM, doivent être formés à ses dangers et opportunités, afin que des décisions éclairées puissent être prises pour encourager l’innovation sans prendre de risque démocratique. A ce titre, le CSA s’est transformé en ARCOM, disposant de davantage de moyens afin de renforcer la souveraineté culturelle. D’autre part, chaque utilisateur est sujet à une sensibilisation accrue aux enjeux des nouveaux médias. Opportunités d’accès à une immense quantité d’information, bien que de qualité hautement variable, les nouveaux médias et l’intelligence artificielle qui s’y insinue prennent également note d’une partie grandissante de notre quotidien, contractant les frontières de notre vie privée. Ainsi, l’utilisation de ces réseaux n’est pas anodine et requiert une certaine éducation, passant par la détermination d’outils d’apprentissages numériques pour sensibiliser plus largement la population et limiter le désordre informationnel.
Soulignons enfin que certains domaines d’activité tels que la médecine et le droit sont des disciplines humaines qui comprennent les qualités et les défauts de cet aspect. Ainsi, leur entière robotisation n’est pas envisageable à ce jour, bien que l’intelligence artificielle puisse aider à en soulager certaines fonctions. L’humain doit donc persister moteur de la technologie, même si cette dernière acquiert un pouvoir grandissant.
En mars dernier, Elon Musk et des centaines d’experts ont signé une lettre ouverte demandant la suspension pour six mois des recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4. Malik Ghallab, directeur de recherche au CNRS, fait parti des signataires. Il nous explique les raisons d'une « pause » dans le développement de l’intelligence artificielle.
Laboratoire de la République : Vous faites partie des signataires de l’appel mondial pour une pause dans le développement de l’Intelligence artificielle (IA) qui a été publié sur le site de la fondation américaine « Future of life » le 29 mars dernier. Pourquoi avez-vous signé cet appel ?
Malik Ghallab : Ce que nous demandons dans cet appel, ce n’est pas seulement une pause dans le développement de l’IA mais une pause dans son déploiement et sa diffusion. Bien au contraire, il est nécessaire que les recherches se poursuivent. La pause demandée concerne le déploiement auprès du grand public et l’utilisation par des entreprises qui peuvent être mal avisées.
Cet instrument avec des modèles de langages profonds a des performances remarquables et est surprenant sur bien des aspects. Cependant, sa diffusion présente des risques. C’est un constat qui est régulièrement partagé. C’était déjà un sujet central à Paris il y a trois ans lors du Forum de l’IA pour l’humanité qui a réuni 400 à 500 participants à l’échelle internationale. Cette conférence avait d’ailleurs donné lieu à de nombreux documents et à un ouvrage de référence sur le sujet.
Le Laboratoire de la République : quels sont ces risques ?
Il faut d’abord bien comprendre qu’aujourd’hui la technique de l’IA est en avance sur la science de l’IA. On sait faire beaucoup plus de choses que l’on ne les comprend. Cela peut paraître surprenant mais ce n’est pas un phénomène nouveau dans l’histoire des sciences et techniques. Par exemple, la machine à vapeur a devancé Carnot de trois siècles. Le moteur électrique a devancé Maxwell de près de cinq siècles. En ce qui concerne l’IA, la science était en avance sur la technique depuis les débuts de son développement dans les années 50 jusque dans les années 80 et puis, progressivement, les choses se sont inversées.
Aujourd’hui, par conséquent, on ne sait pas expliquer exactement les performances remarquables du système en matière de maîtrise du langage et de développement de raisonnements. Il y a eu un changement de phase important entre la version 2, GPT 2, et la version 3, et encore un changement plus important avec la version 4. L’émergence progressive de compétences argumentatives est étonnante mais difficile à comprendre. Il y a une centaine de publications chaque mois dans les revues scientifiques sur ce sujet.
La deuxième source de risques est liée à l’écart entre les possibilités d’adaptation de la société et l’évolution des techniques. Les techniques avancent très vite mais la société a besoin de quelques générations pour pouvoir bien digérer une technique donnée et pour pouvoir mettre en place des garde-fous, des mécanismes de régulation et de contrôle. Aujourd’hui, on avance à une vitesse élevée dans une dynamique qu’on ne contrôle pas. Il n’y a pas de pilote à bord.
Sur un certain nombre de sujets, on a besoin de mécanismes de régulation. On sait les mettre en place sur des techniques et technologies plus anciennes, par exemple, dans le domaine du médicament. On ne déploie pas un médicament sitôt que quelqu’un a inventé une molécule. Il se passe de très nombreux mois, voire des années de tests et de validations avant que des autorités spécialisées donnent leur feu vert et disent qu’un médicament peut être utilisé et prescrit par des médecins. Dans d’autres domaines, comme celui des transports, il ne suffit pas qu’un industriel sorte un nouvel appareil pour inviter les passagers à bord. Il peut se passer de longs mois, voire des années avant que l’appareil ne soit certifié. A contrario, il n’y a que très peu de mécanismes de contrôle sur les technologies d’IA. Les garde-fous qui ont été mis en place au niveau européen concernent principalement le respect de la vie privée (par exemple le RGPD) ou l’encadrement de la liberté d’expression : ils ne répondent pas du tout aux risques que posent les technologies d’intelligence artificielle.
Laboratoire de la République : Concrètement, quels risques politiques pour notre démocratie pourrait apporter la diffusion de l’IA générative à court terme ? On a parlé de la diffusion de fake news de meilleure qualité par exemple.
Malik Ghallab : L’apparition de fake news n’est qu’une des facettes du problème. Ce qui pose fondamentalement problème, c’est que les technologies d’IA confèrent un avantage énorme à ceux qui les possèdent. Elles sont en effet très difficilement reproductibles et déployables. Un modèle comme celui de GPT coûte plusieurs milliards d’euros et demande une somme d’énergie considérable au déploiement. Le développement de ces technologies est extrêmement lourd. On ne pourra pas disposer d’autant de ressources pour développer des modèles alternatifs au sein de laboratoires de recherche. En revanche, l’usage individuel de cette technologie est très simple : ce sont des technologies disponibles. Tout le monde peut interagir avec un système de dialogue. Leur disponibilité individuelle est donc très importante. Mais cette disponibilité individuelle n’a rien à voir avec l’acceptabilité sociale. L’acceptabilité sociale doit prendre en compte des effets à long terme, les valeurs d’une société, la cohésion sociale, etc. ChatGPT va avoir par exemple un impact considérable sur l’emploi : l’acceptabilité sociale va considérablement diminuer si l’outil met des centaines de milliers de personnes au chômage.
Les capacités de manipulation sont également considérables, malgré les précautions prises par OpenAI et les progrès en la matière. L’IA est une technologie clé dans la course à la puissance économique (entre entreprises) et géostratégique (entre États) car elle donne à celui qui la possède des avantages compétitifs immenses. Dans un monde où il y a de plus en plus de conflits ouverts, l’IA va être utilisé pour manipuler des sociétés à grande échelle. Il faut que les sociétés puissent se protéger.
Laboratoire de la République : De nombreuses personnalités se sont exprimées pour dire qu’une pause dans le déploiement de l’IA était illusoire. Qu’en pensez-vous ? Peut-on vraiment mettre en place des mécanismes de ralentissement pour pouvoir réguler l’IA rapidement ?
Malik Ghallab : Nous n’arriverons pas à mettre en pause le déploiement de l’IA si nous ne faisons que constater plus ou moins cyniquement l’existence des moteurs du développement technique et économique, comme le modèle de capitalisme de surveillance. Beaucoup d’efforts ont été faits au niveau européen en ce qui concerne le respect des données individuelles. Ces règles ont été largement acceptées et bien déployées au-delà de l’Europe. Des mécanismes similaires peuvent être créés si on se donne le temps de comprendre les technologies d’IA. Nous ne pouvons pas à la fois constater les manipulations politiques qui ont été conduites à grande échelle ces dernières années (pensons au scandale Cambridge Analytica) et rester les bras croisés sur l’IA.
Cette pétition signée par plus de 20 000 personnes avait pour ambition d’attirer l’attention sur un risque considérable. Pour déployer un outil à une échelle aussi vaste, il faut le maitriser et savoir où il nous conduit. Il faut prendre le temps de comprendre pour réguler son usage.
Entretien réalisé par téléphone.
Mardi 2 avril, l'antenne d'Assas vous invite à sa prochaine table ronde liée à l'impact du numérique sur la jeunesse avec de nombreux experts : Marie-Victoire Chopin, Orianne Ledroit, Vincent Paul-Petit, Thierry Taboy et Serge Tisseron.
Le numérique impacte la jeunesse. Il transforme profondément nos modes de vie et de pensée. Les nouvelles technologies influencent considérablement nos capacités cognitives, en modifiant nos schémas de concentration, de mémorisation et de réflexion. Elles altèrent également notre rapport au temps, en accélérant nos interactions et en créant une culture de l'immédiateté. En ce qui concerne l'apprentissage, le numérique offre des outils variés mais peut aussi susciter des défis liés à la surcharge d'informations et à la capacité de discernement. Enfin, sur le plan social, les technologies numériques redéfinissent les relations interpersonnelles, transformant les modes de communication et d'interaction, tantôt enrichissant la vie en société, tantôt la complexifiant.
Marie-Victoire Chopin : docteure en psychopathologie, MBA et consultante pour le cabinet Technologia
Orianne Ledroit : déléguée générale d’EdTech France, ancienne conseillère du ministre en charge des impacts sociaux, territoriaux et environnementaux du numérique
Vincent Paul-Petit : maire de Seine-Port, commune située en Seine-et-Marne
Thierry Taboy : responsable RSE du Groupe Orange en charge de la prospective opérationnelle à court/moyen terme et perspectives sur les enjeux entre société et numérique, responsable de la commission Défi technologique du Laboratoire de la République
Serge Tisseron : psychiatre, docteur en psychologie habilité à diriger des recherches, et membre de l'Académie des technologies. Auteur de nombreux ouvrages, il a été co-rédacteur de l’avis de l’Académie des sciences L’enfant et les écrans (2013). Il a reçu la même année à Washington un Award du FOSI (Family Online Safety Institute) pour l’ensemble de ses travaux sur les jeunes et les écrans
Quand ? Mardi 2 avril, 20h
Où ? Université Panthéon-Assas / Centre Assas
92, rue d'Assas, 75006 Paris
Participation libre, inscription obligatoire
S'inscrire à l'évènement
Pour rester informé inscrivez-vous à la newsletter
Nous utilisons des cookies sur notre site Web pour vous offrir l'expérience la plus pertinente en mémorisant vos préférences et vos visites répétées. En cliquant sur "Accepter tout", vous consentez à l'utilisation de TOUS les cookies. Toutefois, vous pouvez visiter "Paramètres des cookies" pour fournir un consentement contrôlé.
Ce site web utilise des cookies pour améliorer votre expérience lorsque vous naviguez sur le site. Parmi ceux-ci, les cookies qui sont catégorisés comme nécessaires sont stockés sur votre navigateur car ils sont essentiels pour le fonctionnement des fonctionnalités de base du site web. Nous utilisons également des cookies tiers qui nous aident à analyser et à comprendre comment vous utilisez ce site web. Ces cookies ne seront stockés dans votre navigateur qu'avec votre consentement. Vous avez également la possibilité de refuser ces cookies. Mais la désactivation de certains de ces cookies peut affecter votre expérience de navigation.
Les cookies nécessaires sont absolument indispensables au bon fonctionnement du site web. Ces cookies assurent les fonctionnalités de base et les caractéristiques de sécurité du site web, de manière anonyme.
Cookie
Durée
Description
cookielawinfo-checkbox-analytics
11 mois
Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Analytics".
cookielawinfo-checkbox-analytiques
11 mois
Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Analytics".
cookielawinfo-checkbox-necessary
11 mois
Ce cookie est utilisé pour stocker le consentement de l'utilisateur pour les cookies de la catégorie "Nécessaire".
display_splash
1 heure
Ce cookie est utilisé pour stocker si l'utilisateur a déjà vu le "Splash Screen". Il ne stocke pas de données personnelles.
viewed_cookie_policy
11 mois
Ce cookie est utilisé pour stocker si l'utilisateur a consenti ou non à l'utilisation de cookies. Il ne stocke pas de données personnelles.
Les cookies analytiques sont utilisés pour comprendre comment les visiteurs interagissent avec le site web. Ces cookies permettent de fournir des informations sur les mesures du nombre de visiteurs, le taux de rebond, la source de trafic, etc.