francophonie, OIF, Francophonie, Organisation Internationale de la Francophonie, langue française, diplomatie culturelle, littérature, théâtre, festival, diversité culturelle, les francophonies

MENU
Néhémie Racius : Intelligence artificielle, réflexion sur les enjeux sociétaux
Partenariat Agora / UQO

Néhémie Racius : Intelligence artificielle, réflexion sur les enjeux sociétaux

8 juin 2019 - par Néhémie Racius  
© https://www.auxilia-conseil.com
© https://www.auxilia-conseil.com

Le 29 mai 2019 se tenait le colloque « Intelligence artificielle : enjeux sociétaux et dialogue savoirs-société » à l’UQO à l’occasion de la 87e édition du congrès de l’ACFAS. Lors de cet événement, des acteurs/trices de différents milieux sont venu.e.s exposer et vulgariser leurs recherches, leurs préoccupations, leurs espoirs et leurs propositions de solutions sur les diverses problématiques qu’engendre l’expansion de l’intelligence artificielle (IA). Les différents sous-domaines de l’IA (l’apprentissage automatique, les algorithmes, l’apprentissage profond, par exemple) sont utilisés dans divers champs d’expertise touchant toutes les sphères de la société. Ce déploiement permet de développer, créer, et résoudre des problématiques ou accroître la productivité et les profits. L’essor et l’accroissement de l’utilisation des différents systèmes en IA dans les entreprises et les organisations rendent nécessaires les questionnements sur les impacts socio-politico-économiques qu’occasionne ce développement.

L’intelligence artificielle en transformation
Au cours des présentations, les bénéfices, les développements et les percées technologiques qu’a permis l’évolution des divers sous-domaines de l’IA ont été exposés, notamment, par Yoshua Bengio fondateur et directeur scientifique de l’Institut québécois de l’intelligence artificielle (MILA) et directeur scientifique de l’Institut de valorisation des données. Bengio est reconnu à l’échelle internationale pour ses travaux et avancées en intelligence artificielle, spécialement dans le domaine de l’apprentissage profond. Sa présentation a, en premier lieu, porté sur la manière dont les systèmes apprenants obtiennent leurs connaissances et leurs limites. Les algorithmes sont alimentés par les informations fournies par les humains, c’est ce qu’on appelle l’apprentissage supervisé. Contrairement aux humains, Bengio affirme qu’ : «  il n’y a pas de concept qui permet que les systèmes apprennent seuls ». L’erreur étant humaine, il est, par conséquent, facile de se tromper lors de la programmation de ces systèmes. Un simple changement du nombre de pixels entre deux photos et un système de reconnaissance faciale confond un chien avec une autruche !

Le spécialiste décrit, ensuite, les améliorations et progrès technologiques dont : 1) l’amélioration des programmes de vision dans les systèmes d’automatisation et de robotique dans le secteur de production d’industrie 2) l’autonomisation des véhicules favorisant une plus grande mobilité 3) les applications médicales telles la détection de cancer par l’imagerie 4) la compréhension du langage et la recherche d’informations comme l’amélioration des systèmes de traduction.

Pour finir, Bengio aborde les différents enjeux éthiques et sociétaux concernant l’IA. Pensons au contrôle social par l’accessibilité aux données massives (Big data), l’utilisation des robots tueurs (reconnaissance faciale), l’accroissement des inégalités et par le renforcement des discriminations et biais sociaux. Il nous explique, entre autres, que les robots tueurs sont des armes avec une certaine autonomie, mais que la cible est choisie par des humains. Cette cible est par la suite reconnue par le robot à l’aide d’images et de systèmes de reconnaissance faciale. Le plus inquiétant dans ce type d’armement est l’immoralité des robots. Bien que les robots soient programmés par les humains, à l’opposé de ceux-ci, les robots ne mesurent pas les aspects sociaux d’une situation ce qui les rend très dangereux.
L’accroissement du pouvoir des grandes compagnies est le second enjeu qui a suscité mon intérêt. Bengio parle de « péril économique », car les grandes industries écrasent les petites et moyennes entreprises (PME) par leur grand moyen financier. Ces barrières à l’entrée briment l’innovation des PME ce qui crée un frein à et provoque une inertie sur le marché des technologies. À la suite de la présentation, une question a capté particulièrement mon attention, car elle portait sur les procédures à adopter afin d’améliorer les résultats peu inclusifs des algorithmes. Bengio a répondu qu’en effet la grande proportion d’hommes blancs dans ce secteur était intimement liée à cette problématique et que d’engager plus d’« ingénieurs » de couleur serait une solution préliminaire à ce problème. En résumé, pour Bengio, l’intelligence artificielle offre de nombreuses nouvelles possibilités et des opportunités de changement dans un large éventail de secteurs de la société, mais peut par contre causer de graves répercussions économiques et brimer les droits et libertés.

Dans le même ordre d’idées, Manuel Morales, professeur agrégé au département de mathématique et de statistique, de l’Université de Montréal a exposé « Le rôle de l’intelligence artificielle et la transformation du secteur bancaire » et « Intelligence artificielle et travail : les enjeux organisationnels et managériaux ». Dans le secteur bancaire, l’IA est un outil prometteur qui permet la création d’un cycle de prise de décision pour éviter les goulots d’étranglement dans les perceptions, les prédictions et les actions à prendre en fonction du marché. Morales avance que l’approche IA permet l’automatisation des processus bancaire par l’apprentissage. Dans le modèle traditionnel, c’était l’expertise humaine qui détectait les activités frauduleuses par l’analyse des dossiers bancaires. À l’inverse, dans l’approche IA, l’expertise humaine est remplacée par des systèmes d’apprentissages qui sont en mesure de détecter par des prédictions et l’analyse des résultats antérieurs es opérations suspectes. L’intelligence artificielle est aussi déployée dans les services de paiements et de transaction, dans la gestion du patrimoine et les assurances.

En ce qui concerne les défis, Morales relate les impacts sociaux (emplois qui n’existent pas encore), la confidentialité, la validité des biais, la conformité des systèmes, l’accroissement de la surveillance humaine et la gouvernance. Pour contrer ces enjeux, des principes de base sont à respecter : la non-discrimination, la responsabilité humaine et le respect de la vie privée. Lors de la période de questions, un participant demande au professeur de quelle façon il est possible de valider qu’une personne ou un groupe de personnes ne soit pas discriminé. Morales a répondu brièvement que « […] des procédures existent afin de contrer les formes de discrimination envers des groupes de personnes, mais aucun contrôle n’est fait afin de valider si elles sont respectées ». Alors, la question demeure ouverte et complexe : comment réduire ou contrôler réellement les effets discriminatoires des algorithmes et les inégalités sociales ?

L’intelligence artificielle et les enjeux sociaux
Les présentations de Sébastien Gambs et de Dominic Martin, professeurs à l’Université du Québec à Montréal, ont pour leur part exposé les impacts et les pistes de solutions sur les enjeux éthiques et sociaux à propos de l’intelligence artificielle. Le premier conférencier avait comme sujet le respect de la vie privée et le second, l’utilisation des algorithmes. Relativement au respect de la vie privée, Gambs nous rappelle que celle-ci est un droit fondamental régi par de nombreuses lois, règlements et déclarations. Il a su au cours de sa conférence démontrer les liens étroits entre l’accroissement de la quantité et de la diversité des données collectées et les risques qui y sont associés. Les risques de fuites de données, de réutilisation de données pour des fins non consenties par l’utilisateur et le non-effacement des données une fois rendues publiques ne sont que quelques exemples de risques. L’utilisation de cartes bancaires, de carte de transport ou d’un cellulaire sont des actions effectuées de façon quotidienne qui permettent de recueillir des informations personnelles nous concernant et pouvant être utilisées à différentes fins. L’accessibilité à ces grandes quantités d’informations permet, entre autres, la création de systèmes de profilage et de divers systèmes de prédiction qui, dans les deux cas, peuvent causer des préjudices aux droits relatifs à la vie privée de la personne. Par exemple, les données de casier judiciaire et les données de médias sociaux sont en ce moment mises en commun et utilisées dans des systèmes de « polie prédictive » dans certains états aux États-Unis, pour identifier des suspects potentiels. Est-ce acceptable, nous rappelle Gambs, qu’une personne qui a payé sa dette à la société soit encore la cible des policiers, car les programmes se basent sur des données passées et des prédictions de récidives ?

Pour conclure, Sébastien Gambs apporte des pistes de solution à la collecte et à l’utilisation des données personnelles des internautes : 1) l’anonymisation des données pour diminuer les risques de bris de confidentialité, 2) la transparence des algorithmes d’apprentissage pour ainsi rendre accessible les données aux utilisateurs pour les examiner et les corriger, 3) l’investigation des biais algorithmiques afin de mesurer l’imprécision des algorithmes et les erreurs de données, 4) mesurer la discrimination directe et indirecte afin de valider l’influence des données entre elles 5) l’amélioration de l’équité des systèmes apprenants en modifiant les données dès l’entrée ou en adaptant la sortie et 6) instaurer une culture d’imputabilité algorithmique. Les décisions prises par l’intelligence artificielle doivent refléter les valeurs éthiques de la société et doivent respecter les lois en vigueur. Pour un meilleur contrôle des données, le professeur rappelle deux principes à privilégier pour protéger la vie privée, soit collecter les informations nécessaires seulement et permettre aux internautes de valider et de contrôler les données les concernant. Ces pistes comportent certes des limites et des difficultés qui leur sont propres, toutefois en étant conscient de celles-ci, il devient alors possible de mieux comprendre ses biais et travailler avec ceux-ci pour tenter de les enrayer.

Pour sa part, Dominic Martin nous a fourni plus d’informations sur les algorithmes. N’étant pas véritablement un système d’ordinateur, Martin définit les algorithmes comme « […] un ensemble de règles devant être produites dans un ordre précis afin de performer une tâche ou résoudre un problème [traduction libre d’une diapo de sa présentation] ». La technologie utilisée pour leur conception est complexe ce qui rend les résultats difficilement explicables et analysables. Afin que les algorithmes soient fiables et transparents, divers mouvements réclament que les entreprises soient tenues responsables du résultat des développements et des nouvelles applications de l’intelligence artificielle. Pour les organisations contrevenantes, des sanctions telles que des poursuites judiciaires ou des amendes seraient mises en place. Les entreprises devraient donc rendre des comptes, fournir des explications et des justifications sur leurs pratiques, leurs actions et leurs politiques à un groupe (communauté ou un groupe de révision indépendant) ou une organisation, ordre professionnel ou une autre personne (Ombudsman) sous peine de sanction. Ces pratiques permettraient ainsi d’assurer la commercialisation d’algorithmes validés et de haut standard éthique avant leur utilisation.

Table ronde – réflexion et réseautage
Une table ronde, animée par Valentine Goddard, avocate, fondatrice et directrice exécutive de l’organisme Alliance Impact Intelligence Artificielle (AIIA), a clôturé ce colloque. Sous le thème : « Inclusion, démocratie et la gouvernance de l’IA », Valentine Goddard a demandé aux panellistes d’argumenter sur la responsabilité des différents secteurs en matière d’éthique, d’inclusion, de diversité et les biais algorithmiques et d’art en IA.


Valentine Goddard

Me Ivan Tchotourian, professeur agrégé à la Faculté de droit de l’Université Laval, a tout d’abord abordé le thème de la gouvernance. Réaffirmant le propos général de Dominic Martin, sa réflexion a porté globalement sur la nécessité que « les entreprises doivent assumer un rôle qui est devenu important. Il faut les rattacher à la sphère sociale et sociétale ». L’avocat expose les défis dans le secteur juridique. Le droit a présentement de la difficulté à répondre aux questions légales liées l’IA parce que ce champ d’expertise est relativement récent et inconnu. Toutefois, la responsabilité ne revient pas seulement aux juristes de répondre à ces questionnements. La responsabilité échoit, également, aux dirigeants des entreprises. La gouvernance des entreprises doit aussi réfléchir aux problématiques éthiques de l’IA et assurer aux utilisateurs des algorithmes non discriminatoires, irréfutables en termes d’éthique et conformes aux lois. Pour continuer, Me Tchotourian s’exprime sur l’intérêt qu’il porte en matière de propriété intellectuelle. Comment définir les créations de l’intelligence artificielle ? « Est-ce que ce sont des créateurs ? Est-ce que ce sont des auteurs ? » sont des questions sur lesquelles les juristes prennent difficilement position. Pour conclure, Ivan Tchotourian partage son avis sur la nécessité se poser de nouvelles questions pour comprendre et évaluer l’ampleur des enjeux qui incombe au vaste domaine de l’intelligence artificielle.


À gauche, Luba Elliot, conservatrice, artiste et chercheuse sur l’intelligence artificielle, et à droite Néhémie Racius et Dominique Diouf, lors de la table ronde de réseautage « Inclusion, démocratie et gouvernance de l’intelligence artificielle ».

Dominique Diouf, chercheur au Centre d’étude de responsabilité sociale et écocitoyenneté du Collège de Rosemont à Montréal avait des réflexions qui rejoignaient en partie celles de Yoshua Bengio. Diouf reprend le principe que c’est majoritairement des hommes blancs avec du pouvoir qui conçoivent les algorithmes. Les algorithmes sont donc basés sur les valeurs, la culture des employés blancs qui les conçoivent ce qui exclut par le fait même les personnes qui ne cadrent pas dans ces paramètres. Les chercheurs en IA doivent penser qu’au lieu d’« exclure des individus, on devrait plus tôt renverser la tendance en partant des questions “Qui inclure ? Qui devrait faire partie intégrante d’un système d’intelligence artificielle ?” Car la “technologie doit être au service de l’humain et non le contraire” ». Diouf a comme conviction que la collaboration entre l’anthropologue, le sociologue, l’éthicien, le psychologue et le chercheur en IA permettra de faire émerger des algorithmes « robustes, démocratiques et inclusifs ». Il apporte également comme piste de solution au manque d’inclusion et de démocratisation d’intégrer un grand nombre de personnes en amont et en aval ce qui permettrait de mettre en place des mécanismes qui contribueraient à rendre les systèmes démocratiques.

Prenant moi aussi part à ce panel, j’ai eu la chance de partager mon expérience personnelle avec l’intelligence artificielle. En effet, en tentant d’utiliser les filtres de l’application d’échange de photos “Snapchat” au début de leur mise en partage, je me suis rendu compte que mon visage n’arrivait pas à être capté. Après plusieurs tentatives, j’ai compris qu’il fallait beaucoup de lumière pour que l’application puisse saisir les contours de mon visage, car ma peau est foncée. Cette expérience est un exemple concret que le manque de données sur les différents types de visage, de couleurs de peau ou de sexes engendre des algorithmes discriminants. J’abonde donc dans le même sens que M. Diouf et ses prédécesseur.e.s lorsque ces chercheur.e.s mentionnent l’importance de l’inclusion. Je crois qu’il est important que différents groupes de personnes soient impliqués dans le processus d’inclusion afin de contrer le sexisme, le racisme et les autres formes de discrimination, mais je crois aussi qu’il faut aller plus loin que d’engager des chercheurs et des ingénieurs informatiques issus de la diversité. Il faut impliquer la population afin que celle-ci soit en mesure de critiquer et d’identifier les biais algorithmiques afin de les corriger.

Mario Klingemann, "cet artiste allemand utilise l’intelligence artificielle, les données et les systèmes d’apprentissage automatique pour créer ses pièces."

Dans une autre sphère d’utilisation de l’IA, Luba Elliot, artiste et chercheuse spécialisée en intelligence artificielle dans les industries créatives nous a présenté plusieurs créateurs qui combinent l’IA et l’art numérique. Pour Elliot, à titre de commissaire d’art, il est important d’engager toutes sortes d’artistes avec les nouvelles technologies qu’offre l’intelligence artificielle. Le peintre qui a le plus attiré mon attention est Mario Klingemann.
Cet artiste allemand utilise l’intelligence artificielle, les données et les systèmes d’apprentissage automatique pour créer ses pièces. L’artiste utilise, notamment, les connexions entre différents systèmes d’image pour produire ses œuvres. Comme exposé précédemment, les algorithmes sont des systèmes qui apprennent des données fournies par les humains. Les limites des systèmes d’apprentissage profond sont les principales préoccupations de Klingemann. L’artiste remarque que ses œuvres illustrent un manque en matière de diversité de phénotype, de couleur de peau et de genre. Les algorithmes démontrent l’absence flagrante de visages qui proviennent de l’extérieur de l’Europe. Ainsi peut-on dire que les algorithmes impactent même l’univers créatif des artistes.
Pour clôturer la soirée, Valentine Goddard a eu le plaisir de nous annoncer le lancement du projet “Art Impact AI” ( www.ArtImpactAI.com) une initiative co-produite par les organismes Alliance Impact IA (AIIA) et UKA. Ce programme sous la forme de 13 ateliers sera un dialogue avec des artistes à travers le Canada sur l’intelligence artificielle et ses implications sociales, éthiques et juridiques. Les résultats de ce projet seront partagés lors de la conférence IA en Mission sociale du 30 au 1er mai 2020. www.iaenmissionsociale.com.

Cette journée fut d’une grande richesse sur le plan de nouvelles connaissances et des rencontres que j’y ai faites. J’ai eu la chance de rencontrer et de dialoguer avec des chercheurs/euses, des avocat.e.s, des professeur.e.s et des artistes ayant tou.te.s comme champ d’intérêt un sujet qui me passionne : l’intelligence artificielle. Ce colloque réaffirme la nécessité de créer des projets et des plateformes et de mener en parallèle des recherches permettant à la population de s’informer et de faire entendre sa voix sur les enjeux de l’IA qui ne sont pas sans conséquence sur la société. Cette expérience a été une superbe immersion dans le monde du journalisme et s’avère un tremplin pour moi vers des projets sur l’intersection entre l’intelligence artificielle, les femmes et les personnes racisées et marginalisées.


De gauche à droite : Ivan Tchotourian, Luba Elliot, Jean-François Primeau, Valentine Goddard, Néhémie Racius, Akoulina Connell, Dominique Diouf

Partagez cette page sur votre réseau :