2 novembre 2017 | Jocelyn Maclure – Président de la Commission de l’éthique en science et en technologie et professeur de philosophie à l’Université Laval| Actualités en société
Photo: Joel Ryan Invision / Associated Press
Des agents artificiels véritablement intelligents, capables d’apprendre par eux-mêmes, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes? Des figures connues comme Stephen Hawking et Elon Musk en sont convaincus, souligne l’auteur.
Montréal a réussi à s’imposer comme un centre névralgique du développement de l’intelligence artificielle (IA). Les investissements publics et privés pleuvent sur la métropole. Les approches fondées sur l’orientation générale voulant que l’IA doive autant que possible imiter le fonctionnement de l’esprit humain et arriver à apprendre de façon autonome ont permis des progrès spectaculaires, notamment en ce qui a trait au traitement des langues naturelles, aux véhicules autonomes ou à l’exécution de tâches qui semblent exiger une faculté d’intuition, comme jouer au jeu de go.
Mais des agents artificiels véritablement intelligents, capables d’apprendre par eux-mêmes et de se transformer à la lumière de leur compréhension du monde extérieur, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes ? Des figures connues comme Stephen Hawking et Elon Musk en sont convaincus. Ils s’appuient en outre sur les travaux de chercheurs du Future of Life Institute de l’Université d’Oxford comme Nick Bostrom et Max Tegmark. Ces derniers affirment que les progrès rapides en IA, conjugués à l’augmentation constante de la puissance computationnelle des ordinateurs, pourraient mener à l’émergence de « super-intelligences » artificielles qui poseront un « risque existentiel » pour l’espèce humaine.
À ce stade de ma réflexion, rien ne me permet de penser que ces craintes flirtant avec le catastrophisme doivent orienter nos actions relatives à l’IA. Les pronostics des chercheurs de pointe en IA, dont Yoshua Bengio et Joëlle Pineau, sont nettement plus modérés. Ils nous rappellent que les dernières avancées ne permettent pas d’affirmer que nous nous dirigeons vers le développement d’une intelligence artificielle générale plutôt que vers la multiplication d’intelligences artificielles incroyablement efficaces dans l’exécution de tâches spécifiques, comme reconnaître un visage ou jouer au jeu de go.
Et je ne parle pas de la question de savoir si des IA pourraient ressentir des émotions et acquérir une conscience de soi analogue à celle des êtres humains. Ces perspectives relèvent, jusqu’à preuve du contraire, de la science-fiction. On peut appeler des algorithmes interconnectés des « réseaux de neurones artificiels » si l’on veut, mais nous avons affaire à des machines capables de traiter des informations en grande quantité et de monter ensuite en généralité.
Des risques éthiques
Un des effets pervers des visions sensationnalistes de l’IA — pensons à l’attribution de la citoyenneté saoudienne à un robot — est que celles-ci peuvent nous faire perdre de vue les authentiques enjeux éthiques soulevés par les récents développements. L’IA modifiera nos modes de vie, y compris le monde du travail. Toute réflexion éthique sur l’IA doit reconnaître que les bénéfices seront vraisemblablement majeurs. Les accidents de la route seront beaucoup moins nombreux lorsque des véhicules autonomes rouleront sur nos routes. Des tumeurs cancéreuses seront diagnostiquées plus rapidement. L’IA pourrait contribuer à rendre le système de justice plus accessible.
Cela dit, les risques éthiques inhérents à l’IA sont aussi majeurs. Étant donné l’opacité des algorithmes et la quantité d’information qu’ils traitent, qui sera responsable des mauvaises décisions prises par des systèmes d’IA et des inévitables défaillances ? Comment se prémunir contre les cyberattaques visant des infrastructures névralgiques qui miseront sur l’IA, comme le réseau électrique ou les hôpitaux ? Comment appliquer le principe de diligence raisonnable, en vertu duquel les producteurs de technologies doivent prendre des mesures d’atténuation des risques inhérents à l’utilisation de leurs produits, lorsque l’on sait qu’il peut être impossible pour le concepteur de retrouver le chemin pris par un algorithme pour arriver à une décision ?
Les progrès en IA reposent lourdement sur l’accès à des données, y compris nos données personnelles. Sachant que la multiplication des recoupements de données pourtant anonymisées peut permettre l’identification des personnes et que le principe de consentement est vidé de son sens lorsqu’il est question des technologies de l’information, comment assurer la protection de la vie privée ?
Et comment neutraliser les biais discriminatoires dans les données traitées par l’algorithme ou dans la vision du monde de l’ingénieur qui supervise la machine ?
Naissance de nouveaux métiers
Enfin, certains pensent que l’IA engendrera une « quatrième révolution industrielle ». Des tâches présentement accomplies par des humains le seront à l’avenir par des machines, et le travail d’un grand nombre de travailleurs sera transformé par l’IA. De nouveaux métiers naîtront.
Cette transformation fera des gagnants et des perdants. Elle exige dès maintenant une réflexion sur nos politiques sociales, fiscales et éducatives. Doit-on « taxer les robots » ? Le recours à l’IA parviendra-t-il à convaincre les législateurs d’instaurer une allocation universelle qui remplacerait les mesures actuelles de soutien du revenu ? C’est sur ces questions que planche, dans un premier temps, la Commission de l’éthique en science et en technologie. Il serait déplorable que l’IA ait pour effet d’accroître les inégalités socioéconomiques existantes.
Heureusement, les acteurs de l’IA sont, de façon générale, sensibles à ces questionnements. Une volonté s’affirme même pour que Montréal soit à l’avant-garde de la réflexion éthique sur l’IA. Un forum sur l’« intelligence artificielle responsable »aura lieu cette semaine à Montréal. Il est crucial qu’un dialogue entre les chercheurs de différentes disciplines, les industriels, les décideurs et la société civile s’amorce dès maintenant pour que l’on recherche collectivement les moyens d’assurer une atténuation des risques et une distribution juste des avantages de l’IA.
Des centaines de chercheurs sont attendus les 2 et 3 novembre au Palais des congrès de Montréal pour le Forum IA responsable, événement organisé par les Fonds de recherche du Québec et l’Université de Montréal.
SOURCE : http://www.ledevoir.com/societe/actualites-en-societe/511912/montreal-peut-etre-a-l-avant-garde-de-la-reflexion-ethique-sur-l-intelligence-artificielle
Ma réflexion,
Même si je ne suis pas férue d’IA ; en tant que médecin, je vois émerger les applications de l’IA en tant qu’aides. Prenons l’exemple des algorithmes pour les diagnostics en radiologie pour ne citer qu’un exemple et ses conséquences directes sur un diagnostic précoce, simplifié, sans x consultations. Attelons nous sur comment optimiser l’interrogatoire et le mettre à la portée d’infirmières ; sur accompagnement du patient ; sur son éducation thérapeutique (prenons la main sur des publications de mauvaise qualité).
Pour revenir sur l’AI en elle même : ce qui me gène c’est que l’on nomme intelligence quelque chose qui n’en a pas tus les attributs, car même si l’AI est plus puissante qu’un seul homme – sur l’aspect synthèse de données – elle n’a pas la conscience d’elle même comme vous le dites si bien, ni les sensations qui éveillent ses sens, ni la créativité, l’empathie, tout ce qui fait de l’homme son imprévisibilité, sa capacité d’adaptation.
Par ailleurs cela est une bonne chose que l’on se pose les questions éthiques aujourd’hui, car l’AI ne sera selon mois finalement que ce que nous voudrions bien en faire.
Enfin, en tant que médecin, et fille de médecin, je suis très sensibilisée à l’évolution du contexte dans lequel mes confrères travaille. Depuis des années j’essaie de mettre en place des partenariats le plus possible en adéquation avec les besoins des médecins pour leurs patients (diagnostic précoce, concertation multidisciplinaires, vidéo conférences, formations, amélioration des réseaux de soins, etc. ) avec cependant de plus en plus de difficultés dans le contexte pharmaceutique. Je suis persuadée de vouloir inscrire mon activité pour aider les professionnels de santé et le patients pour sauver ce que nous avons de magnifique en France » la santé « .
Si vous avez une idée de ce que je pourrais faire. Je quitte mon poste d’ici la fin novembre 2017.
Très confraternellement
Dr. Hélène GODEFROI
0634243108
0664025979
Bonjour Consoeur,
Tout d’abord mes meilleurs voeux pour 2018
Ensuite je vous prie de bien vouloir m’excuser de cette réponse tardive.
Je serais heureux de pouvoir échanger avec vous.
Pour 2018 je souhaite travailler sur la thématique de la médecine intégrative et collaborative avec une méthodologie d’intelligence collective. je serais intéressé de connaître votre point de vue.
mon adresse mail jm_des@hotmail.com skype: jmdjote tel 0032(0)476839214