Étiquettes : Intelligence artificielle

Intelligence artificielle : la culture numérique est cruciale pour relever les défis de l’IA

par Thierry Taboy le 28 août 2023
L’apparition, depuis un an et demi environ, de modules d’intelligence artificielle générative destinés au grand public, a eu un retentissement important dans la sphère publique, entre projections utopiques et dystopiques. Alors que la révolution est encore devant nous, Thierry Taboy, directeur Droits Humains au sein du groupe Orange et coordinateur de la task force Santé du collectif Impact AI, souligne l’importance de l’acculturation au numérique pour favoriser le développement d’une IA européenne et circonscrire les risques démocratiques liés à son usage.
Le Laboratoire de la République : Dix mois après l’apparition de ChatGPT, en sait-on davantage sur les usages qui sont faits de cet outil ? La révolution annoncée n’est-elle pas encore devant nous ? Thierry Taboy : Les applications supportées par un moteur d’intelligence artificielle sont loin d’être nouvelles mais peu de gens jusqu’à présent se rendaient compte qu’ils s’en servaient dans leur quotidien. A la manière d’un monsieur Jourdain de la technologie, ils entraînaient des IAs sans le savoir. En offrant une interface très accessible, ChatGPT d’OpenAI a créé une rupture radicale, permettant au plus grand nombre de se confronter en conscience aux potentialités offertes par l’outil. Et c’est devenu une folie, entre déferlante d’usages, engouement médiatique et discours plus ou moins délirants (« les IAs génératives vont faire disparaître les cadres »… ). ChatGPT est une intelligence artificielle qui répond à toutes vos questions même parfois quand elle ne sait pas, écrit des articles, des chansons, des recettes de cuisine ou des lignes de code à la demande et bien plus encore. Si elle repose sur des banques de données immenses et propose un mode de langage naturel, elle n’en reste pas moins imparfaite. Pour résumer, elle « ne comprend pas » ce qu’elle écrit, elle ne fait que prédire les mots qui sont les plus cohérents pour continuer sa phrase. Mais elle le fait plutôt bien, ce qui donne l’impression qu’elle est vraiment intelligente, ou consciente. Cela dit, il est indéniable que la qualité des réponses proposées par les IAs génératives ne cesse de progresser, avec comme facteurs déterminants une performance algorithmique croissante, de nouvelles fonctionnalités, l’intégration de banques de données de plus en plus larges et l’explosion du nombre d’utilisateurs qui « l’entraînent » toujours plus. Assistance à la rédaction, support client, campagnes de communication, conditions juridiques, éducation, création de contenus multimédia, traduction, programmation… les champs recouverts par les Midjourney, ChatGPT, Lamma-2 (open source) et consorts sont toujours plus nombreux, aussi bien du côté professionnel que grand public. Selon l’IFOP, 18% des salariés en Entreprise l’utiliseraient d’ailleurs déjà, le plus souvent sans le dire. Si l’on veut résumer, ChatGPT est un excellent outil pour générer un premier jet, de gagner du temps, quand nous sommes confrontés à toute forme de rédaction. Cette nouvelle donne oblige à repenser la manière dont nous abordons l’éducation et la formation. Il faut apprivoiser la bête, l’encadrer. On le sait, usage n’est pas maîtrise et ces technologies demandent de revoir les modes d’apprentissage. Profiter du meilleur de ces technologies et en faire un allié de la créativité humaine demande une bonne connaissance de leurs forces et limites, la capacité à générer des contextes propices à une réponse adaptée. Comme le note très bien le Conseil National du Numérique (Livre "civilisation numérique"), "(toute nouvelle technologie doit être) accompagnée de la formation d'un nouvel esprit critique et d'une culture technique permettant à chacun de préserver sa capacité de discernement". Le Laboratoire de la République : Ces technologies ont suscité un mélange de peur et d’enthousiasme sans précédent. Quels espoirs et quelles inquiétudes peut-on raisonnablement avoir vis-à-vis de ces modules ? Thierry Taboy : Il est d’abord urgent de sortir des discours manichéens qui fleurissent un peu partout et savoir raison garder. Les IAs génératives entraînent de nouveaux risques mais peuvent également être considérées comme une véritable opportunité pour celles et ceux qui gagneront en "capacitation" comme aimait à le rappeler Bernard Stiegler. Une récente étude du MIT tend d’ailleurs à montrer que l'usage de ChatGPT serait certes facteur de productivité mais surtout de réduction des inégalités une fois les personnes formées. (Experimental evidence on the productivity effects of generative artificial intelligence | Science). S’il est vrai que certains métiers sont vraiment plus à risque que d’autres, nous allons surtout devoir faire face à une transformation radicale de leurs contours. Ce qui sous-tend que plutôt qu’un remplacement de ceux-ci, ce sont les profils qui maitriseront le mieux ces nouveaux outils qui seront en situation de force en termes d’attractivité employeur. Si nous devons nous concentrer concrètement sur les risques structurels induits par ces IAs, c’est du côté des biais, de l’éthique, de la lutte contre les stratégies de désinformation (deepfake) comme du respect de la vie privée qu’il faut se pencher. C’est tout le sens du débat qui s’est tenu le 18 juillet dernier au sein du Conseil de Sécurité de l’ONU et dont le thème était « conséquences pour la paix de l’intelligence artificielle, entre « risques existentiels » et immenses promesse ». Avec les droits humains en première ligne. Pour résumer, plutôt que de lutter contre une vague inexorable, il va falloir apprendre à surfer. Le Laboratoire de la République : La levée de fonds record conclue par Mistral AI en juin a démontré que des technologies européennes ou françaises étaient en cours de développement. Est-ce suffisant ? Comment assurer la souveraineté européenne en la matière ? Thierry Taboy : Face aux montants astronomiques des investissements déployés aux Etats-Unis ou en Chine, l’Europe, malgré un retard évident, a encore une véritable carte à jouer si elle s’en donne les moyens et offre un cadre propice, une juste balance entre innovation et réglementation. De par son histoire, sa culture, la « vieille » Europe porte en elle des valeurs propices au déploiement d’IAs responsables « by design », respectueuses des droits humains, une condition essentielle à sa souveraineté. Avec des industries d’excellence à portée mondiale dans les domaines IT et une propension à s’appuyer sur leurs écosystèmes et ainsi déployer des stratégies d’innovation ouverte, l’Europe possède de réels atouts pour se démarquer. Et cela peut faire toute la différence en matière d’accessibilité, de confiance utilisateur et de différenciation marché. Le règlement européen sur les services numériques (DSA) comme le futur « AI Act » sont et seront à ce titre déterminants. Les dernières versions de l’AI Act peuvent à ce titre légitimement inquiéter par leur portée trop restrictive et des améliorations sensibles sont attendues pour réellement promouvoir l’équilibre innovation-réglementation. N’en reste pas moins vrai que la souveraineté est au cœur de l’agenda européen. Le Laboratoire de la République : De nombreuses universités ont décidé d’interdire l’usage de ChatGPT. Est-ce une stratégie tenable et intéressante ? Thierry Taboy : Selon moi, cela n’a aucun sens sauf si de telles décisions sont dictées par la nécessité de marquer une courte pause et d’en profiter pour permettre au corps enseignant de se former, de se repenser pour intégrer cette nouvelle donne dans les parcours d’apprentissage. Prenons l’exemple des écoles qui forment les futurs développeurs et développeuses. Intégrer dans leurs parcours d’apprentissage l’appropriation des IAs génératives permettra de s’appuyer sur celles-ci afin de rapidement créer les briques de bases (frameworks) et se concentrer sur des tâches plus complexes et ainsi libérer leur créativité. Cet exemple vaut également pour les étudiants ou les communicants qui auront la capacité à générer les premières ébauches de réponse, se faire surprendre par des points de vue inédits. Pour autant, il leur faudra connaître comment affiner leurs requêtes (prompts), se confronter à d’autres sources et, sur cette base, proposer leur propre vision. Comme l'écrit Jérémy Lamri, "pour résoudre efficacement les inégalités liées à la capacité de prompter les IA génératives, il est crucial d’adopter des approches interdisciplinaires. Cela signifie associer les compétences et perspectives de la sociologie, la philosophie et les sciences techniques pour mieux comprendre les attentes et les besoins spécifiques des utilisateurs." L’intégration de ces technologies demande donc aux enseignants comme aux professionnels de se réinventer pour faire en sorte que ces technologies soient au service de l’ingéniosité humaine. Le travail à mener est conséquent.  Au final, les universités et autres structures de formation qui feront la différence dans le futur seront celles qui auront privilégié l’intelligence collective tout en puisant dans ce qu’apporte ces technologies nouvelles. Refuser le train ne sauvera pas la calèche.

Intelligence artificielle : une trêve de 6 mois pour répondre aux risques encourus

par Malik Ghallab le 22 juin 2023
En mars dernier, Elon Musk et des centaines d’experts ont signé une lettre ouverte demandant la suspension pour six mois des recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4. Malik Ghallab, directeur de recherche au CNRS, fait parti des signataires. Il nous explique les raisons d'une « pause » dans le développement de l’intelligence artificielle.
Laboratoire de la République : Vous faites partie des signataires de l’appel mondial pour une pause dans le développement de l’Intelligence artificielle (IA) qui a été publié sur le site de la fondation américaine « Future of life » le 29 mars dernier. Pourquoi avez-vous signé cet appel ? Malik Ghallab : Ce que nous demandons dans cet appel, ce n’est pas seulement une pause dans le développement de l’IA mais une pause dans son déploiement et sa diffusion. Bien au contraire, il est nécessaire que les recherches se poursuivent. La pause demandée concerne le déploiement auprès du grand public et l’utilisation par des entreprises qui peuvent être mal avisées. Cet instrument avec des modèles de langages profonds a des performances remarquables et est surprenant sur bien des aspects. Cependant, sa diffusion présente des risques. C’est un constat qui est régulièrement partagé. C’était déjà un sujet central à Paris il y a trois ans lors du Forum de l’IA pour l’humanité qui a réuni 400 à 500 participants à l’échelle internationale. Cette conférence avait d’ailleurs donné lieu à de nombreux documents et à un ouvrage de référence sur le sujet. Le Laboratoire de la République : quels sont ces risques ? Il faut d’abord bien comprendre qu’aujourd’hui la technique de l’IA est en avance sur la science de l’IA. On sait faire beaucoup plus de choses que l’on ne les comprend. Cela peut paraître surprenant mais ce n’est pas un phénomène nouveau dans l’histoire des sciences et techniques. Par exemple, la machine à vapeur a devancé Carnot de trois siècles. Le moteur électrique a devancé Maxwell de près de cinq siècles. En ce qui concerne l’IA, la science était en avance sur la technique depuis les débuts de son développement dans les années 50 jusque dans les années 80 et puis, progressivement, les choses se sont inversées. Aujourd’hui, par conséquent, on ne sait pas expliquer exactement les performances remarquables du système en matière de maîtrise du langage et de développement de raisonnements. Il y a eu un changement de phase important entre la version 2, GPT 2, et la version 3, et encore un changement plus important avec la version 4. L’émergence progressive de compétences argumentatives est étonnante mais difficile à comprendre. Il y a une centaine de publications chaque mois dans les revues scientifiques sur ce sujet. La deuxième source de risques est liée à l’écart entre les possibilités d’adaptation de la société et l’évolution des techniques. Les techniques avancent très vite mais la société a besoin de quelques générations pour pouvoir bien digérer une technique donnée et pour pouvoir mettre en place des garde-fous, des mécanismes de régulation et de contrôle. Aujourd’hui, on avance à une vitesse élevée dans une dynamique qu’on ne contrôle pas. Il n’y a pas de pilote à bord. Sur un certain nombre de sujets, on a besoin de mécanismes de régulation. On sait les mettre en place sur des techniques et technologies plus anciennes, par exemple, dans le domaine du médicament. On ne déploie pas un médicament sitôt que quelqu’un a inventé une molécule. Il se passe de très nombreux mois, voire des années de tests et de validations avant que des autorités spécialisées donnent leur feu vert et disent qu’un médicament peut être utilisé et prescrit par des médecins. Dans d’autres domaines, comme celui des transports, il ne suffit pas qu’un industriel sorte un nouvel appareil pour inviter les passagers à bord. Il peut se passer de longs mois, voire des années avant que l’appareil ne soit certifié. A contrario, il n’y a que très peu de mécanismes de contrôle sur les technologies d’IA. Les garde-fous qui ont été mis en place au niveau européen concernent principalement le respect de la vie privée (par exemple le RGPD) ou l’encadrement de la liberté d’expression : ils ne répondent pas du tout aux risques que posent les technologies d’intelligence artificielle. Laboratoire de la République : Concrètement, quels risques politiques pour notre démocratie pourrait apporter la diffusion de l’IA générative à court terme ? On a parlé de la diffusion de fake news de meilleure qualité par exemple. Malik Ghallab : L’apparition de fake news n’est qu’une des facettes du problème. Ce qui pose fondamentalement problème, c’est que les technologies d’IA confèrent un avantage énorme à ceux qui les possèdent. Elles sont en effet très difficilement reproductibles et déployables. Un modèle comme celui de GPT coûte plusieurs milliards d’euros et demande une somme d’énergie considérable au déploiement. Le développement de ces technologies est extrêmement lourd. On ne pourra pas disposer d’autant de ressources pour développer des modèles alternatifs au sein de laboratoires de recherche. En revanche, l’usage individuel de cette technologie est très simple : ce sont des technologies disponibles. Tout le monde peut interagir avec un système de dialogue. Leur disponibilité individuelle est donc très importante. Mais cette disponibilité individuelle n’a rien à voir avec l’acceptabilité sociale. L’acceptabilité sociale doit prendre en compte des effets à long terme, les valeurs d’une société, la cohésion sociale, etc. ChatGPT va avoir par exemple un impact considérable sur l’emploi : l’acceptabilité sociale va considérablement diminuer si l’outil met des centaines de milliers de personnes au chômage.  Les capacités de manipulation sont également considérables, malgré les précautions prises par OpenAI et les progrès en la matière. L’IA est une technologie clé dans la course à la puissance économique (entre entreprises) et géostratégique (entre États) car elle donne à celui qui la possède des avantages compétitifs immenses. Dans un monde où il y a de plus en plus de conflits ouverts, l’IA va être utilisé pour manipuler des sociétés à grande échelle. Il faut que les sociétés puissent se protéger. Laboratoire de la République : De nombreuses personnalités se sont exprimées pour dire qu’une pause dans le déploiement de l’IA était illusoire. Qu’en pensez-vous ? Peut-on vraiment mettre en place des mécanismes de ralentissement pour pouvoir réguler l’IA rapidement ? Malik Ghallab : Nous n’arriverons pas à mettre en pause le déploiement de l’IA si nous ne faisons que constater plus ou moins cyniquement l’existence des moteurs du développement technique et économique, comme le modèle de capitalisme de surveillance. Beaucoup d’efforts ont été faits au niveau européen en ce qui concerne le respect des données individuelles. Ces règles ont été largement acceptées et bien déployées au-delà de l’Europe. Des mécanismes similaires peuvent être créés si on se donne le temps de comprendre les technologies d’IA. Nous ne pouvons pas à la fois constater les manipulations politiques qui ont été conduites à grande échelle ces dernières années (pensons au scandale Cambridge Analytica) et rester les bras croisés sur l’IA. Cette pétition signée par plus de 20 000 personnes avait pour ambition d’attirer l’attention sur un risque considérable. Pour déployer un outil à une échelle aussi vaste, il faut le maitriser et savoir où il nous conduit. Il faut prendre le temps de comprendre pour réguler son usage. Entretien réalisé par téléphone.

Première table ronde à Assas sur l’IA, les nouveaux médias et la démocratie

par L'équipe du Lab' le 20 avril 2023 Assas Lab
Mercredi 19 avril, l'antenne d'Assas a organisé sa première table ronde sur l'intelligence artificielle, les nouveaux médias et leur impact sur la démocratie. Nathalie Sonnac, ancienne membre du CSA, David Lacombled, président de "La villa numeris" et la juriste Laure-Alice Bouvier sont intervenus.
I. Quelles conséquences l'intelligence artificielle a-t-elle à ce jour sur les médias et la démocratie ? A) De nouveaux usages des médias Une nouvelle ère de transition numérique se présente pour les médias, qui doivent se conformer à de nouveaux standards et se numériser, sans quoi ils risquent de disparaître. Or les entreprises du numérique, bien qu’elles soient des entreprises privées, ont une empreinte grandissante sur l’espace public. Faut-il ainsi limiter l’influence de ces patrons qui n’ont pas de légitimité démocratique ? Du fait du passage en ligne de nombreux médias, ces derniers sont de moins en moins verticaux à l’égard de la diffusion d'informations. La parole du journaliste perd ainsi en crédibilité par rapport à la parole de l’amateur. Sur nombre de nouveaux médias, en particulier les médias gratuits, en ligne et en réseaux, utilisant l’intelligence artificielle à travers leurs algorithmes d’accès à l’information, un article de journaliste et un article amateur ne sont en effet plus hiérarchisés. Chez les 15-34 ans, les réseaux sociaux sont ainsi la première source d’information, devant les journaux télévisés, papiers et la radio. Amplifiés par cette totale liberté de publication, ainsi que par la caisse de résonance offerte par les réseaux, les discours de haine, de complotisme et la fausse information deviennent une préoccupation majeure. Un remède, bien que partiel, à la circulation de fausses informations serait de surveiller le comportement des personnes âgées qui statistiquement font circuler le plus ce type d’information, car cette population manque en général de recul face aux dérives des nouvelles technologies. La véracité des informations diffusées sur ces nouveaux médias est donc primordiale à vérifier, afin que les utilisateurs ne se détournent pas de ces réseaux qu’ils pourraient trouver trop “sales” (D. Lacombled), se dirigeant alors vers des sources d’information davantage biaisées qui ne feraient qu'accroître leur désinformation. Veillons à ce que les réseaux sociaux servent à “ouvrir l’appétit d’information” (D. Lacombled) sans en devenir la seule source. B) Un nouveau modèle économique pour les médias Le modèle économique médiatique a été totalement bouleversé par l'émergence des nouveaux médias. Ces derniers suivent un modèle économique dit “de plateforme”, selon lequel le média devient l’intermédiaire entre le consommateur et l’annonceur. D’une part, la plateforme médiatique met une vaste source d’information gratuite à la disposition du consommateur contre la collecte de ses données personnelles. D’autre part, elle met à disposition des emplacements publicitaires pour l’annonceur contre une rémunération. Ainsi dans ce modèle les effets de réseau avantagent le média le plus populaire (“winner-takes-all effect”), conduisant à des quasi-monopoles médiatiques. Cette situation monopolistique engendre des hausses de prix, une baisse de qualité de l’information, voire une certaine influence politique de certains nouveaux médias. Certains réseaux sociaux sont également en passe d’adopter des sources de revenu plus diverses, provenant du consommateur et non seulement de l’annonceur. Citons Twitter depuis sa reprise par Elon Musk, qui fait payer le “tick” bleu de certification ouvrant son accès au plus grand nombre, au détriment des médias qui utilisaient ce symbole comme gage d’authenticité et de validation, comme le New York Times. C) Un risque démocratique causé par une nouvelle répartition des pouvoirs L’intelligence artificielle possède des “conséquences démocratiques surpuissantes” (N. Sonnac) notamment en ce qui concerne la circulation d’informations. En effet, tandis que l’espace médiatique s'élargit, les pouvoirs se concentrent ce qui menace le pluralisme des opinions. Les nouveaux médias rivalisent de puissance avec les Etats, comme l’illustre leur capitalisation boursière : la capitalisation des GAFAM fluctue aux alentours des 7000 Milliards d’euros largement supérieure au PIB Français d’environ 3000 Milliards d’euros. Ainsi, en collectant toujours davantage de données sur les utilisateurs, les nouveaux médias sont capables de fournir des informations clés en politique, comme le scandale de Cambridge Analytica l'a mis en lumière. En effet, l’intelligence artificielle est arrivée à un tel niveau de précision qu’elle prédit parfois mieux le comportement d’un individu que l’individu lui-même. Biaisant également l’accès à l'information à travers leurs algorithmes, les nouveaux médias rendent la diffusion d’information pertinente plus ardue, ce qui n’est pas sans conséquence démocratique. Cela s’illustre chez les jeunes, qui souffrent d’une méconnaissance politique due à leur désinformation partielle, et dont l’abstention ne cesse d’augmenter. Enfin, l’utilisation de l’intelligence artificielle dans le domaine de la sécurité s’avère être un enjeu démocratique de taille notamment en ce qui concerne l'essor de l’utilisation de caméras biométriques. Ces dernières sont déployées pour des raisons de sécurité des populations, mais font débat pour leur utilisation en Chine et leur mise en place lors des jeux olympiques à Paris. La présence humaine demeure ainsi une nécessité pour obtenir la confiance des usagers lors de l’utilisation d’un algorithme. Parcoursup, qui fait régulièrement l’objet de critiques en raison de l’utilisation d’un algorithme pour déterminer l’avenir des lycéens, en est une juste illustration. II. Quelles pistes de réponse apporter à ces dangers ? A) Une réglementation de l’immatériel “L’intelligence artificielle remet en cause tous les droits” (L.A. Bouvier), rendant sa réglementation nécessaire bien qu’ardue en raison de son caractère disruptif. L’Union Européenne, place majeure dans la défense des droits humains et de la presse, doit donc s’emparer du sujet, ce qu’elle a entamé à juste titre. Premièrement, la principale législation européenne à ce sujet, le RGPD, qui réglemente la collecte et le traitement des données, s’applique depuis 2018 et permet de sécuriser les données des utilisateurs ainsi qu’un panel plus vaste d’actifs tels que les NFT. Deuxièmement, l’ “Artificial Intelligence Act”, proposé en avril 2021 par la Commission européenne, hiérarchise de manière plus poussée les plateformes médiatiques, permettant d’agir de manière graduelle selon le risque que la plateforme et ses algorithmes présentent. Cependant, l’intelligence artificielle, qui se contente de répliquer ce qu’elle connaît, possède un fort biais dont les conséquences ne sont pas encore mesurées. Réglementer et atténuer ce biais semble difficile à ce jour, car les algorithmes développés sont très souvent gardés secrets à des fins concurrentielles. Ainsi, le problème se pose dans le métaverse, dans lequel il s’agit de réguler des éventuels comportements qui seraient répréhensibles hors de ce réseau, tel qu’un biais raciste induit par l’algorithme. Les démocraties ont donc un rôle important à jouer afin de disposer des ressources et moyens nécessaires pour contrôler cette technologie. Tandis que la quantité de données collectées augmente de façon exponentielle, une majorité des données européennes est pourtant hébergée par les serveurs des GAFAM, sur lesquels nous n’avons que peu de contrôle. La question de la réglementation de l'intelligence artificielle est ainsi trop souvent traitée de manière locale au niveau européen, tandis que le sujet est bien plus étendu et nécessiterait une réglementation mondiale. B) Adapter l'ensemble de l'environnement réglementaire Plus largement, l'ensemble de l’environnement réglementaire, hérité de plusieurs siècles, doit s’adapter à marche forcée aux disruptions de l'intelligence artificielle et des nouveaux médias. L’environnement réglementaire fiscal est souvent impuissant face aux montages financiers des nouveaux réseaux. Les états cherchent la juste balance entre des taxes proportionnées et un maintien de l’innovation. Mais les évolutions des législateurs sont inertielles, de même que la jurisprudence qui évolue lentement. Ainsi, les possibles failles que l’intelligence artificielle pourrait trouver dans notre système réglementaire risquent de persister. Par exemple, l’intelligence artificielle pourrait servir à générer gratuitement des montages fiscaux à quiconque le demande, rendant l’administration fiscale bien impuissante face à cela. De façon équivalente, comment définir juridiquement la responsabilité d’une voiture autonome lors d’un accident ? Comment assurer le respect de la RGPD lorsque les données sont disséminées dans l’espace numérique ? Toutes ces questions nécessitent une adaptation de la législation, sans quoi le progrès technique ne peut être mis en pratique, comme nous le voyons actuellement avec les voitures autonomes dont la maturité de la technologie précède celle du cadre réglementaire. C) L’enjeu crucial de la formation             Afin d’accorder “l’orchestre pas toujours symphonique” (D. Lacombled) que représente l'intelligence artificielle et son utilisation dans les nouveaux médias, l’éducation est une nécessité. D’une part, les acteurs du cadre réglementaire, des ministères à l’ARCOM, doivent être formés à ses dangers et opportunités, afin que des décisions éclairées puissent être prises pour encourager l’innovation sans prendre de risque démocratique. A ce titre, le CSA s’est transformé en ARCOM, disposant de davantage de moyens afin de renforcer la souveraineté culturelle. D’autre part, chaque utilisateur est sujet à une sensibilisation accrue aux enjeux des nouveaux médias. Opportunités d’accès à une immense quantité d’information, bien que de qualité hautement variable, les nouveaux médias et l’intelligence artificielle qui s’y insinue prennent également note d’une partie grandissante de notre quotidien, contractant les frontières de notre vie privée. Ainsi, l’utilisation de ces réseaux n’est pas anodine et requiert une certaine éducation, passant par la détermination d’outils d’apprentissages numériques pour sensibiliser plus largement la population et limiter le désordre informationnel. Soulignons enfin que certains domaines d’activité tels que la médecine et le droit sont des disciplines humaines qui comprennent les qualités et les défauts de cet aspect. Ainsi, leur entière robotisation n’est pas envisageable à ce jour, bien que l’intelligence artificielle puisse aider à en soulager certaines fonctions. L’humain doit donc persister moteur de la technologie, même si cette dernière acquiert un pouvoir grandissant.

Pour rester informé
inscrivez-vous à la newsletter

S'inscrire