Obtenez un devis
Écrit par Silvia Bitchkei le 13 octobre 2020

L'intelligence artificielle, l'éthique et la protection des données peuvent-elles fonctionner en harmonie?

L'intelligence artificielle (IA) ouvre de nouveaux défis en matière d’éthique et de protection des données qui doivent être traités par le biais d'une politique et d'une conception minutieuse de solutions afin de parvenir à l'harmonie. L'IA et ses sous-ensembles, l'apprentissage automatique (ML) et l'apprentissage profond (DL), génèrent des idées et des produits innovants à un rythme soutenu. En effet, le marché des solutions basées sur l'IA devrait valoir 733,7 milliards d'ici 2027 avec un taux de croissance annuel composé de plus de 42%.

Ces solutions d'IA se nourrissent de données, les consomment et les analysent pour fournir l'intelligence nécessaire au fonctionnement des solutions basées sur l'IA. Ces données sont souvent personnelles, comportementales et peuvent être des données très sensibles telles que des informations de santé et biométriques. Là où il y a des données, il y a des implications potentielles sur la vie privée et l'éthique. Avec autant de données personnelles utilisées pour former des algorithmes, où se situe la protection des renseignements personnels dans un avenir activé par l'intelligence artificielle? Dans cette deuxième partie de blogues axés sur l’IA, nous allons explorer comment parvenir à l'harmonie avec l'IA, l'éthique et la protection des renseignements personnels.

Domaines où l'intelligence artificielle, la protection des données et l'éthique se croisent

L'intersection de l'intelligence artificielle avec l'éthique et la protection des données prend de l'ampleur à mesure que la technologie devient plus courante dans les infrastructures informatiques. Il existe de nombreux exemples où la puissance des algorithmes d'IA entraîne des problèmes de protection des renseignements personnels et des dilemmes éthiques. Vous trouverez ci-dessous quelques exemples montrant les types de domaines qui présentent des problèmes de confidentialité et d'éthique dans les services, applications et systèmes compatibles avec l'IA.

Systèmes de reconnaissance faciale

La reconnaissance faciale est utilisée dans plusieurs applications, notamment:

  1. Pour vérifier l'identité d'une personne, pour contre-vérifier une personne est qui elle prétend être. Le système Rekognition d'Amazon utilise l'IA pour reconnaître une personne à partir d'une image telle qu'une photo d'identité.
  2. Pour vérifier l'âge d'une personne, des applications mobiles telles que Yoti utilisent l'apprentissage automatique pour identifier l'âge d'une personne à partir de son visage.
  3. Dans la prévention de la criminalité dans la vente au détail, l'IA est utilisée pour identifier les voleurs connus.
  4. En tant que méthode d'authentification, par exemple, pour se connecter à un appareil mobile à l'aide d'une biométrique faciale.

La reconnaissance faciale fonctionne en capturant les traits du visage, en analysant les modèles et en faisant une correspondance. L'algorithme derrière un système de reconnaissance faciale est formé contre des échantillons de visages. L'entraînement se poursuit au fur et à mesure que les données du visage d'un utilisateur, pendant l'utilisation, sont capturées et analysées. Lorsqu'il est présenté avec le visage d'un utilisateur pendant un processus, par exemple, pour vérifier que quelqu'un est bien celui qu'il prétend être, le visage est comparé à une base de données d'utilisateurs pour trouver une correspondance. La reconnaissance faciale devient très populaire et une enquête de l'Université de Georgetown a constaté qu'environ la moitié des adultes américains ont des images faciales stockées dans des bases de données permettant aux forces de l'ordre d'effectuer des recherches.

S'assurer que la biométrie faciale est capturée dans le cadre d'un système dépendant de la reconnaissance faciale nécessite un soin extrême. Notre visage fait partie intégrante de notre vie privée. L'Université de Georgetown déclare que «la reconnaissance faciale est une technologie puissante qui nécessite une surveillance stricte ». En termes de ce que consiste cette surveillance, des principes importants de protection des données dès la conception peut aider à maintenir un service de reconnaissance faciale à confidentialité améliorée. Celles-ci incluent la minimisation des données, c'est-à-dire l'utilisation de la biométrie faciale uniquement lorsque cela est nécessaire.

Biais

Les êtres humains ont des « angles morts cognitifs » appelés biais. Il y a 180 biais reconnus dans les sociétés humaines: parmi eux figurent les stéréotypes raciaux et sexuels. Lorsque des algorithmes activés par l'IA sont conçus, ces biais peuvent être inclus sans le savoir. Ces algorithmes sont ensuite souvent utilisés pour éclairer des décisions importantes, y compris celles du gouvernement et de la santé.

Un exemple de problème de biais fondé sur l'IA en médecine a été porté à l'attention du British Medical Council (BMJ). Dans un article, le BMJ évoque le cas d'Avery Smith et de sa femme, LeToya, décédés d'un mélanome. Smith, un développeur de logiciels, a découvert que les algorithmes utilisés dans la détection du cancer de la peau étaient formés en utilisant principalement une peau blanche. La femme de Smith, une femme noire, a été affectée négativement par des algorithmes d'IA qui ne comprenaient que la peau blanche.

Pour lutter contre les préjugés dans les systèmes basés sur l'IA, une combinaison de technologie, de société et de politique doit se réunir pour résoudre les problèmes. Une évaluation récente des problèmes de biais inhérent à l'IA, appliquée aux solutions de soins de santé, est abordée dans l'article "The ethics of AI in healthcare: A mapping review». Le document identifie six niveaux clés qui nécessitent une attention particulière pour résoudre le problème des préjugés liés à l'IA dans les soins de santé: individuel, interpersonnel, de groupe, institutionnel et sociétal ou sectoriel.

Protection des données différentielle et données des consommateurs

Target Corp était à l'origine d'un cas tristement célèbre de big data révélant plus que ce à quoi vous vous attendiez. Target a eu l'idée de créer un « score de grossesse » à partir des données des utilisateurs. Cela a été mis en œuvre par l'entreprise pour utiliser le comportement d'achat pour ensuite cibler les utilisateurs avec des bons liés à la grossesse. Dans un événement malheureux, un père aurait découvert que sa fille adolescente était enceinte lorsqu'il a vu des bons de grossesse pour elle dans un courriel. Cette histoire peut être vraie ou non, mais le concept de dépassement des données est une préoccupation sérieuse dans les solutions d'apprentissage automatique / d'apprentissage automatique qui prédisent le comportement, comme les préférences d'achat. Selon IBM, 79% des entreprises de vente au détail et de produits de consommation utiliseront l'automatisation basée sur l'IA pour l'intelligence client d'ici 2021. La conception de solutions marketing basées sur l'IA doit placer la vie privée comme principe fondamental de la conception afin d'éviter la perte de confiance des consommateurs et de réduire la probabilité de violations de la vie privée.

Trouver le juste équilibre qui permet aux entreprises d'améliorer les produits et de comprendre les besoins des clients tout en veillant à ce que leur confidentialité soit respectée est abordé à la fois par la technologie et par la réglementation. Le concept de « protection des données différentielle » tente de résoudre la capacité de collecter et de partager les données personnelles et comportementales nécessaires à un système d'IA, tout en préservant la confidentialité de ces données. L'application du concept de protection des données différentielle est un modèle mathématique qui peuvent aider à atténuer certaines attaques liées à la confidentialité. D'autres approches technologiques incluent certaines méthodes de pseudonymisation qui peuvent être utilisées avec l'IA et le ML. Les réglementations peuvent également aider à appliquer les mesures nécessaires pour préserver la vie privée des individus, tout en collectant et en analysant de grands ensembles de données représentant le comportement des consommateurs.

Gouvernance de l'IA et de la protection des renseignements personnels

Plusieurs réglementations couvrant les domaines de la protection des données comportent également des clauses relatives à l'utilisation de l'IA. Le RGPD de l'UE est l'une de ces lois qui, bien qu'il ne supprime pas spécifiquement l'intelligence artificielle, fixe des exigences qui englobent son utilisation, par exemple, l'article RGPD 22 couvre «la prise de décision individuelle automatisée, y compris le profilage».

Dans un récent briefing politique "AI Governance Post-GDPR: Lessons Learned and the Road Ahead ”, un certain nombre de domaines clés ont été identifiés dans la lutte contre l'IA et la protection des données:

  1. Encouragez l'innovation centrée sur la conformité dans l'IA
  2. Autonomiser la société civile grâce à l'IA
  3. Améliorer l'interopérabilité des structures de gouvernance de l'IA

Le rapport encourage le dialogue aux niveaux local et international pour résoudre les défis de la gouvernance de l'IA dans un contexte respectueux de la vie privée. À ce sujet, le rapport souligne que «la protection de la vie privée dès la conception (dans les systèmes utilisant l'IA) devrait être considérée comme une opportunité d'innover dans des produits centrés sur les droits ».

L'intelligence artificielle et la protection des données, la voie à suivre

L'IA alimente de nombreux processus et continuera de le faire, d'autant plus que la fabrication englobe la technologie et que des villes intelligentes apparaissent. Mais cette technologie, par sa nature, doit consommer toujours plus de données pour améliorer l'intelligence et l'efficacité. Ce faisant, il ouvre de nouveaux défis en matière de protection de la vie privée et d'éthique qui doivent être résolus par le biais d'une politique et d'une conception minutieuse de solutions. Le Center for Data Ethics and Innovation déclare que pour réduire les obstacles à l'acceptation de l'IA dans la société, « les entreprises, les citoyens et le secteur public ont besoin de règles et de structures claires qui permettent une innovation sûre et éthique dans les données et l’IA ». Les solutions basées sur l'intelligence artificielle pourraient bien devenir omniprésentes dans les années à venir. Nous devons agir maintenant pour nous assurer que ces solutions agissent de manière éthique et respectueuse de la vie privée.

Articles similaires

N'attendez pas.
Obtenez un devis aujourd'hui.

Sans frais 1 866-430-8166Obtenez un devis gratuit
Sécurisez votre entreprise aujourd'hui.
phone-handsetmagnifiercrossmenu