Aller au contenu

Trois questions à Anne-Sophie Hulin

L’intelligence artificielle, le partage des données et les droits humains

L’intelligence artificielle (IA) révolutionne nos vies et soulève les passions. Elle s’immisce dans une foule de domaines, propulsant la recherche et l’innovation à des vitesses phénoménales grâce à sa logique d’apprentissage qui carbure aux données publiques et privées.

Médecine de précision, observation fine des changements climatiques, amélioration de la mobilité durable, prévention du décrochage scolaire, l’IA change la donne partout où elle s’implante. Mais acceptons-nous de lui partager nos données personnelles pour qu’elle puisse avancer? Comment le droit peut-il aider les sociétés à profiter de toutes les promesses de l’IA tout en évitant les dérives?

Anne-Sophie Hulin  est professeure à la Faculté de droit de l’Université de Sherbrooke et titulaire de la Chaire de recherche Justice sociale et intelligence artificielle. Nous lui avons demandé de nous aider à comprendre ces enjeux qui nous dépassent.

Pourquoi l’IA a-t-elle besoin de nos données privées?

Pour répondre à cette question, la professeure nous explique d’abord ce qu'est l'intelligence artificielle. « C’est une technologie qui permet de simuler l'intelligence humaine, qui utilise des algorithmes ou des modèles mathématiques pour analyser un très grand volume de données et générer souvent de nouvelles informations qui vont aider à la prise de décision, résoudre des problèmes très complexes, et ce, de manière plus ou moins autonome. »

Et les exemples sont nombreux et sans limites, même dans notre quotidien, avec les assistants vocaux sur nos téléphones, l’assistance à la traduction, l’agent conversationnel ChatGPT, la reconnaissance faciale, les véhicules autonomes… Pour arriver à ses fins, l’IA s’alimente en données numériques sous différents formats, du texte, du son, de l'image, et nécessairement avec nos données privées, nos renseignements personnels.

« Des renseignements personnels sont les données qui vont permettre de nous identifier directement ou indirectement en tant qu'individu, en tant que consommateur, en tant que patient ou en tant qu'utilisateur des réseaux sociaux », précise Anne-Sophie Hulin.

Il est aujourd'hui impensable de parler d'intelligence artificielle sans parler de données, et bien souvent de données personnelles. Parce que justement, il y a cet effet d'entraînement de l'intelligence artificielle grâce à nos données.

Quels sont les enjeux à considérer?

Parce que nos renseignements personnels sont des bouts de notre vie privée, quand l’IA les utilise, cela présente des enjeux importants d'atteinte à la vie privée, de confidentialité et de sécurité des données.

Et le risque est d'autant plus grand que l’intelligence artificielle ouvre la porte souvent à des collectes massives de données sans qu’on sache véritablement pourquoi elles sont collectées et utilisées en bout de ligne.

En revanche, l'intelligence artificielle ne peut pas fonctionner sans données. « Et pour avoir une intelligence artificielle éthique et responsable, mais aussi une intelligence artificielle qui fournit des résultats de qualité, cela va dépendre énormément de la qualité des données. Et cette qualité des données va dépendre du volume des données et de la pertinence des données qui sont collectées. »

En fait, la collecte massive de données constitue autant un risque certain pour notre vie privée qu’une opportunité d’obtenir de meilleurs résultats de l’intelligence artificielle.

« Prenons l'exemple de la reconnaissance faciale. Si les systèmes de reconnaissance faciale sont entraînés sur des jeux de données qui ne prennent pas en compte la diversité de la population, le résultat généré ensuite par ce système pourrait être biaisé et donc susciter des discriminations qui porteraient préjudice à des groupes de personnes sous-représentés ou mal représentés dans le jeu de données utilisé. Donc, c'est par l'accès à nos données qu'on peut lutter contre certains risques sociaux, comme des biais et des discriminations de l'intelligence artificielle. »

Quel rôle le droit peut-il jouer?

La professeure Hulin nous rassure tout de suite : le droit encadre déjà l'intelligence artificielle, que ce soit dans le Code civil ou à travers les différentes lois sur la protection des renseignements personnels.

« Toutefois, le droit est à un moment carrefour, c'est-à-dire qu'on se rend compte que l'intelligence artificielle génère de nouveaux risques sociaux, que le droit déjà existant ne prend pas en compte. Par exemple, les lois actuelles sur la protection des renseignements personnels se concentrent sur l'enjeu de la protection de la vie privée. Mais les lois ne permettent pas d'appréhender plus largement les enjeux spécifiques en matière de responsabilité, ni même les enjeux de qualité de la donnée. Dans le prolongement des réflexions éthiques, il est certainement venu le temps d'une règlementation juridique spécifique de l'intelligence artificielle. »

D’ailleurs, des projets de législation sont en cours dans le cas de l'Union européenne, en Angleterre et, depuis juin, un projet de loi canadien est sur la table pour encadrer le déploiement de l'IA, c'est-à-dire définir dans quelles conditions la mise en marché de ces systèmes peut se faire avec une approche qui considère le risque.

Mais l'adoption de législations est un processus long, qui est bien souvent en retard vis-à-vis de la technologie.

Le temps que le droit se fasse, l'intelligence artificielle se déploie massivement. Et ici, le juriste a un rôle majeur à jouer, de sensibilisation et d'éducation sur l'ensemble des risques et des enjeux mais aussi des potentiels de l'intelligence artificielle dans notre société.

« La tâche n'est pas mince, car ce cadre juridique doit non seulement définir un juste équilibre entre la protection des individus et la préservation de l'innovation. Il doit aussi considérer la place que l'on veut laisser à la technologie dans la société de demain. Ce qui suppose aussi un débat démocratique. »

Donc la mise sur pause du déploiement de l'intelligence artificielle, elle serait bienvenue pour les juristes et elle serait bienvenue aussi pour mener des réflexions démocratiques sur ce qu'on attend de l'intelligence artificielle dans la société.


Informations complémentaires