top of page

Les enjeux éthiques de l'intelligence artificielle et du numérique pour la notification de contacts

  • Nathalie Torrès-Parent et Dominic Cliche
  • 1 avr. 2021
  • 6 min de lecture

Cet article propose de brosser un portrait des enjeux éthiques des applications de notification de contacts ayant recours à l’intelligence artificielle. La manière dont ces outils sont conçus, configurés et déployés soulève plusieurs enjeux relatifs aux valeurs de pertinence, de vie privée, d’autonomie et, évidemment, de bien-être et de santé.

Photo libre de droits

L'intelligence artificielle et son appétit pour les données fait émerger une tension entre les principes à la base de la protection de la vie privée et la quête d'optimisation de la fiabilité des applications.

Contexte

Afin de restreindre la propagation du virus SARS-CoV-2, plusieurs États ont déployé des applications mobiles de notification de contacts. Ce type d’outil aurait le potentiel de surmonter certaines limites du traçage manuel et d’accroître ainsi l’efficacité et l’efficience du processus de traçage de contacts. Il permettrait d’alerter rapidement les individus qui se sont trouvés récemment à proximité d’une personne ayant ensuite reçu un diagnostic positif du virus. Selon ses fonctionnalités, il permettrait aussi de soutenir les efforts de santé publique en fournissant notamment de l’information aux utilisateurs sur les comportements à adopter et les consignes sanitaires à respecter en cas de notifications, ou en transmettant aux autorités de santé publique des données agrégées traçant un portrait des risques d’éclosions dans la population.

La manière dont ces outils sont conçus, configurés et déployés soulève plusieurs enjeux éthiques, relatifs aux valeurs de pertinence, de vie privée, d’autonomie et, évidemment, de bien-être et de santé.


Options d’applications

L’application Alerte Covid, déployée au Canada depuis juin 2020 et au Québec depuis l’automne, repose sur la technologie Bluetooth pour détecter la proximité entre deux appareils sur lesquels l’application est active. Cela signifie que chaque appareil génère un identifiant aléatoire ou pseudo-aléatoire, qui est communiqué à l’autre appareil lorsqu’il y a un contact à une certaine distance (par exemple, à moins de deux mètres) pour une certaine durée (par exemple, pour au moins 15 minutes). Au Canada et dans une majorité de pays occidentaux, cette option a été préférée à la technologie GPS, laquelle est considérée comme présentant plus de risques pour la vie privée en raison du portrait qu’elle permet de tirer des lieux fréquentés par chaque utilisateur.

Ces deux options peuvent être complémentées par l’ajout de la technologie d’intelligence artificielle (IA) afin de déterminer, avec un plus haut niveau de granularité, une cote de risque associée à chaque utilisateur, grâce à des algorithmes d’apprentissage. Cela implique généralement la collecte et le traitement d’une plus grande quantité de données.

Bien que le déploiement d’un type d’application de traçage incorporant l’IA ait été écarté par nos autorités gouvernementales, il demeure un cas de figure intéressant du point de vue d’une analyse éthique. L’intelligence artificielle soulève beaucoup d’intérêt à l’heure actuelle, dans une pléthore de champs d’activités, comme en santé. L’OCDE a publié un rapport faisant état du rôle positif qu’elle pourrait jouer dans l’endiguement de la pandémie[1]. Sa capacité de traitement d’un vaste ensemble de données ouvre plusieurs pistes, comme celles d’identifier des traitements pertinents au virus ou de dégager des tendances épidémiologiques pour affiner la compréhension de la transmission du virus[2]. Il est possible d’imaginer, dans une vision évolutive et itérative des applications mobiles d’exposition au virus, que l’on bonifie certaines applications déployées pour y greffer des techniques d’intelligence artificielle, de manière à évaluer les risques d’exposition au virus.

Enjeux éthiques des applications de notification d’exposition au virus avec intelligence artificielle

Dans son rapport d’étape sur le développement et l’utilisation d’une application mobile de traçage des contacts intégrant l’IA, la Commission de l’éthique en science et en technologie (CEST) a tenté de mettre en lumière des conditions d’acceptabilité éthique à considérer avant le déploiement d’une telle application. Plusieurs considérations du rapport peuvent s’appliquer de manière transversale aux différentes spécificités des applications, qu’ils soient sous-tendus par des technologies de géolocalisation, par Bluetooth ou qu’ils convoquent des algorithmes d’IA. Certaines particularités des applications peuvent toutefois rendre plus saillants certains enjeux éthiques, comme ceux relatifs à la vie privée, ou à la discrimination et à la stigmatisation. Diverses dimensions doivent être examinées, dont le type de données collectées, leur hébergement et les risques de sécurité inhérents aux technologies utilisées.


La technologie est-elle vraiment pertinente dans le contexte ?


Il importe d’abord que les technologies promues pour soutenir la lutte à la COVID-19 répondent spécifiquement à un besoin de santé — exprimé par les autorités de santé publique — et qu’elles s’intègrent facilement à leurs pratiques en cours et les soutiennent dans leur travail. Le développement d’applications mobiles de traçage commande, pour ainsi dire, une évaluation de leur pertinence. Cela, dans une optique de « bienfaisance », où l’on reconnaît l’importance de mettre en œuvre des mesures qui entrainent des bienfaits pour la population et les travailleurs de la santé, et de « non-malfaisance », où l’on s’assure de réduire le plus possible les torts qui pourraient être causés à certains pans de la population, dont les travailleurs de la santé.


Les notifications ou les informations fournies par l’application sont-elles fiables ?


Les notifications ou les informations fournies par l’application sont-elles fiables ?

Au cœur de la notion de pertinence se trouvent celles de fiabilité et d’efficacité de la technologie. Elle ne saurait être pertinente si elle n’est pas, avant tout, suffisamment fiable et efficace pour atteindre les fins visées.

Ainsi, avant de déployer une solution technologique, un examen rigoureux devrait être entrepris quant à ses limites et ses conditions de succès. Une application de traçage de contacts sera considérée comme plus ou moins fiable au regard du ratio de « faux positifs » et de « faux négatifs » de contact qu’elle génère par rapport à la réalité : la détection d’un contact susceptible de mener à la transmission du virus alors que ce n’est pas le cas en réalité, ou inversement. Plus une application génère de faux positifs ou de faux négatifs, et donc plus le ratio est élevé, moins elle est fiable.

Un manque de fiabilité dans les cotes de risque générées par les algorithmes peut donner l’impression à l’utilisateur dont la cote est « verte » qu’il dispose d’une forme de certificat d’immunité et l’amener à adopter des comportements à risque. À l’inverse, une évaluation de risque élevé erronée peut causer de l’anxiété supplémentaire à une personne, qui n’est pas nécessairement justifiée au regard de la situation réelle, à moins d’un diagnostic positif.



Peut-on combiner la fiabilité de la technologie, l’efficacité à briser les chaines de transmission du virus, et le respect de la vie privée ?


Le fonctionnement des applications mobiles de traçage implique l’utilisation de données sensibles, telles que des renseignements portant sur la santé des utilisateurs ou, parfois, leur localisation et leurs déplacements. Pour entrainer des modèles de prédiction des risques avec l’intelligence artificielle, l’on peut vouloir s’appuyer sur d’autres données comme les données démographiques et les symptômes des utilisateurs. La collecte de données peut aussi s’effectuer à des fins d’analyse épidémiologique, ce qui pourrait, par exemple, motiver une collecte de données de localisation. L’étendue de la collecte peut varier selon les finalités poursuivies.

Cela dit, d’un point de vue législatif, les principes de nécessité, de minimisation et de proportionnalité sont des repères normatifs qui balisent la collecte de données. En vertu de ceux-ci, la nature et la quantité des données collectées ne doivent pas outrepasser ce qui est nécessaire à l’atteinte de finalités déclarées, validées et légitimes.


Néanmoins, l'intelligence artificielle et son appétit pour les données fait émerger une tension entre les principes à la base de la protection de la vie privée et la quête d'optimisation de la fiabilité des applications.

De fait, pour établir des prévisions avec acuité, l’IA a besoin d’une importante quantité de données. Toutefois, comme le soulignent les chercheurs Christophe Mondin et Nathalie Marcellis-Warin « plus la quantité de données collectées est grande et plus les informations sur les contacts et la position des individus sont complètes et précises, plus les enjeux éthiques et juridiques sont importants. » [3]

Même s’il peut être tentant de maximiser la collecte pour renforcer la fiabilité, la collecte devrait plutôt s’effectuer de manière proportionnelle à l’importance de la finalité poursuivie et des bénéfices raisonnablement attendus.

En parallèle des principes restreignant la collecte, des mécanismes de sécurité doivent être mis en place pour protéger la vie privée des utilisateurs. Ces données sont-elles anonymisées de manière à prévenir toute forme de réidentification des individus ? Cette question se pose avec d’autant plus d’acuité dans le contexte numérique actuel, où il est possible de recouper divers jeux de données pour identifier une personne ou inférer de nouvelles informations à son sujet à partir de données non personnelles ou chiffrées.

Comme ce risque s’applique aux niveaux de risque générés par les algorithmes, cela invite à être particulièrement vigilant sur les modalités de stockage, d’échanges et de destruction des données. Les technologies les moins susceptibles de porter atteinte aux droits et libertés doivent être priorisées.


Les données fournies par l’IA sont-elles exemptes de biais discriminatoires ?


Les données collectées par les applications mobiles peuvent revêtir un intérêt pour mieux suivre la pandémie et nourrir la prise de décision. Or, cela soulève l’enjeu de la représentativité des données collectées à des fins d’analyse épidémiologique. Des pans de population sont-ils exclus de cet ensemble de données ? Pour répondre à cette question, il importe de se pencher sur les conditions d’accès aux applications mobiles de traçage. Un manque d’accessibilité à un téléphone intelligent ou un niveau de littératie numérique insuffisant peuvent représenter des barrières considérables à l’utilisation de l’application. Cela peut créer ou exacerber des inégalités dans la population et faire en sorte que certains groupes d’individus soient sous-représentés dans les données servant à orienter des mesures de santé publique.

[1] OCDE (2020), Using artificial intelligence to help combat COVID-19. [2] Idem.

[3] Mondin, C. et N. Marcellis-Warin (2020) Recension des solutions technologiques développées dans le monde afin de limiter la propagation de la COVID-19 et typologie des applications de traçage, p. 25.

Comments


Joignez-vous à notre liste d'envoi

Merci pour votre envoi ! Nous vous avons ajouté à notre liste.

Nb. n'attendez pas de courriel de confirmation, nous évitons les envois superflus ;)

bottom of page