Le SSF veille

Le SSF assiste aux conférences de Yoshua Bengio

par Marc Couture

L'Université de Sherbrooke avait de la grande visite le 16 avril dernier, alors que le professeur Yoshua Bengio, l’un des plus grands experts mondiaux en matière d’intelligence artificielle, a donné deux conférences sur l’intelligence artificielle (IA), la première en matinée à la Faculté des sciences et la seconde en après-midi à l'Agora du Carrefour de l’information. Rappelons que le Service de soutien à la formation s’intéresse à l’IA compte tenu des nouvelles compétences qu’elle suppose pour les travailleurs de demain, de même qu’en lien avec son impact sur l’enseignement.

Source : page Facebook de l’Université de Sherbrooke. Photo : Michel Caron
1ère conférence à la Faculté des sciences : les applications de l’IA pour la santé

C’est devant une salle comble que le professeur Bengio a présenté en matinée une conférence sur les applications de l’intelligence artificielle pour la santé. Sa présentation était surtout axée sur les avancées effectuées par son équipe en apprentissage profond en appui au travail des spécialistes en imagerie médicale. Bengio a présenté en introduction le fonctionnement de l’apprentissage machine et l’état des travaux de son équipe sur le développement de réseaux de neurones artificiels.

Bengio a ensuite présenté des exemples d’avancements rapides en intelligence artificielle non supervisée dans la perception et la reconnaissance des images, ainsi que le traitement du langage. D’autres exemples ont été présentés mettant en évidence les capacités insoupçonnées de l’IA en lien avec la créativité, où la machine peut composer de la musique et générer des images de synthèse de volcans que l’œil humain ne peut distinguer du réel. 

Ce dernier exemple a permis de faire le lien avec les applications de l’IA pour assister les médecins, plus particulièrement l’examen de l’imagerie provenant de différents appareils pour détecter des cellules de différents types (dont celles pouvant s’avérer cancéreuses). Ce travail demande beaucoup d’attention au détail de la part des professionnels de la santé : la machine peut maintenant offrir un niveau de précision égal ou supérieur à celui du spécialiste du domaine et ainsi donner plus de temps à ces derniers pour se concentrer sur d’autres tâches de haut niveau. Un autre champ d’intérêt pour l’équipe de Bengio est le soutien de l’IA pour traiter des données textuelles, de façon par exemple à classer et interpréter les notes des médecins pour compléter le dossier du patient. Une problématique commune à ces deux champs d’application est celle de la multiplication des sources de données dans les différents milieux de pratique clinique – la fusion de ces sources, le traitement mathématique de sous-ensembles de données et la simulation de défauts et d’imprécisions permettent d’entraîner les systèmes et améliorer leurs performances futures.

La conférence s’est terminée par une période de questions où les étudiants et professeurs présents ont pu aller plus en détail sur certains points amenés par le professeur Bengio durant sa présentation. Deux questions ont été plus particulièrement populaires, soient sur le futur de la recherche et de la pratique médicale ainsi que les différentes façons de gérer les lacunes dans les outils informatiques qui soutiennent la programmation d’algorithmes. Dans le premier cas, Bengio a souligné l’importance de bien positionner l’IA afin de soutenir le travail des professionnels et non de les remplacer, alors que la seconde question a permis de faire ressortir l’importance de travailler à rendre l’utilisation des outils plus facile. Dans un contexte où les outils se démocratisent et pourraient faire l’objet d’usages pouvant soulever des questionnements au niveau éthique, la sécurité des données apparaît comme un autre champ de recherche important. 

2e conférence : forum de discussion à l’Agora du Carrefour

Alors que sa première conférence s’est terminée en référant aux questionnements éthiques entourant l’utilisation de l’IA, le professeur Bengio a présenté la Déclaration de Montréal pour une IA responsable qui a pour objectif d’encadrer le développement de l’IA pour le bien commun. Lancée en novembre 2017 lors du Forum IA responsable et présentée formellement lors du congrès NeurIPS en décembre 2018, la Déclaration de Montréal vise à susciter un débat public et à proposer une orientation progressiste et inclusive du développement de l’IA. Elle vise trois objectifs :

  • Élaborer un cadre éthique pour le développement et le déploiement de l’IA
  • Orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologique
  • Ouvrir un espace de dialogue national et international pour réussir collectivement un développement inclusif, équitable et écologiquement soutenable de l’IA

Après avoir sommairement présenté le cadre, les professeurs Hélène Pigot et Yves Bouchard ont animé une discussion articulée autour de trois thèmes. Le professeur Bengio était invité à proposer ses réponses et répondre aux questions de l’assistance en lien avec chacune des thématiques.

1.     Vie privée

Selon les bénéfices escomptés de l’IA, nous sommes prêts à faire varier la frontière entre l’information publique et l’information privée. Pensons aux…

  • Objets connectés (capteurs, caméras)
  • Systèmes de recommandation (achat en ligne, réseaux sociaux, préférences)
  • Lutte au terrorisme

Comment la frontière entre les informations publiques et les informations privées varie selon les situations? Quelles sont les limites acceptables que l’on doit garantir aux citoyens et aux collectivités ?

Bengio s’inquiète de la façon dont les compagnies privées, organisations et gouvernements vont utiliser les données et les interpréter de façon contraire au bien commun. Il a soulevé l’exemple de la surveillance par caméra assistée par l’IA afin d’identifier des malfaiteurs en Chine (une utilisation potentiellement positive de la technologie) mais qui peut aussi déraper alors que ce gouvernement est particulièrement reconnu pour le non-respect des droits individuels et de la vie privée de ses citoyens – une réalité qui pourrait aussi se produire chez nous si des règles ne sont pas mises de l’avant pour encadrer l’usage de cette technologie. Il a aussi présenté l’exemple de compagnies d’assurance qui pourraient être tentées d’utiliser le traitement des données par l’IA pour faire payer des primes plus élevées à des personnes plus à risques de développer certaines maladies. Il a évoqué le fait que des gouvernements ou certains groupes d’intérêt pourraient vouloir influencer l’opinion publique en manipulant les informations sur les réseaux sociaux. Sur ce dernier point, Bengio suggère d’aller de l’avant avec le concept de « data trust », où un tiers pourrait servir d’intermédiaire pour gérer les données individuelles et encadrer son utilisation par les entités qui minent ces données de différentes façons.

2.     Délégation du contrôle

De plus en plus de processus de décision et de contrôle sont délégués à des systèmes d’intelligence artificielle (SIA). Par exemples,

  • Les armes autonomes (drones, robots tueurs)
  • Les systèmes d’accès basés sur l’identification biométrique (téléphones, points de service)
  • Les dispositifs d’assistance (voitures, avions, maisons)

Quels sont les principes qui peuvent orienter ce transfert d’autorité vers les SIA, et quels sont les défis auxquels nous sommes confrontés?

Selon Bengio, il faut préciser ce qui est acceptable ou pas et guider le développement de l’IA selon ces règles. La prise de décision ne devrait pas être laissée à la machine seule, l’humain doit demeurer au centre du processus si ce n’est que pour éviter la mortalité, la discrimination, les erreurs judiciaires et bien d’autres torts pouvant résulter d’une mauvaise utilisation des applications de l’IA. La transparence dans le développement des algorithmes est alors cruciale, pour éviter les biais et prévoir l’implication de la société dès le départ : certaines techniques d’apprentissage automatique permettraient de minimiser les biais, mais encore faut-il que les développeurs en profitent!

3.     Retombées sociales

Le développement de l’intelligence artificielle requiert une forme de concentration des données. Quel sera l'impact sur...

  • la démocratie
  • le développement durable
  • la justice sociale

Comment pouvons-nous collectivement garantir un contrôle des données et un accès aux données qui soient profitables à la société?

Selon Bengio, l’IA pourrait amener la société à questionner son mode de fonctionnement à différents égards pour donner plus de pouvoir aux individus, mais pourrait aussi avoir comme effet pervers de donner plus de leviers à ceux qui ont accès à ces outils (par rapport à d’autres qui n’y auraient pas accès). C’est l’alignement à l’intérêt général qui doit guider ce questionnement, mais celui-ci se bute alors aux aléas du système capitaliste qui vient accroitre les inégalités. À la suite d’une question de l’auditoire, Bengio a donné quelques pistes pour y arriver en suggérant aux gens de s’informer, de participer aux discussions, de chercher à comprendre les enjeux et de s’intéresser au futur de l’IA qu’importe leur discipline choisie. 

Bengio a aussi abordé d’autres éléments dont la propriété intellectuelle et la place de la formation pour former de bons citoyens dans l’ère de l’IA. À son avis, il faut encourager et protéger l’innovation par des brevets, mais selon une approche défensive (ce que des entités telle que Google ont déjà promis de faire). Il va sans dire qu’il voit l’importance de former dès le jeune âge les personnes à raisonner, à développer la pensée critique et la logique, pas seulement dans un contexte académique mais aussi en encourageant les gens à se former de façon plus générale.