À l’heure où la volonté d’expérimentation des technologies biométriques se fait grande et où trop souvent, tant dans les secteurs publics que privés, les déploiements de ces technologies s’effectuent en l’absence de consultation du public, la Défenseure des droits a souhaité connaître l’état de connaissances et la perception des Français sur ces sujets dans une enquête publiée ce jour. Au vu des résultats, la Défenseure des droits alerte les pouvoirs publics sur la criante méconnaissance des Français de l’usage et des conséquences des technologies biométriques sur leurs droits fondamentaux.
Le déploiement des technologies biométriques s’est fortement accéléré en France comme dans toute l’Europe, tant dans le secteur public que dans le secteur privé. Allant du simple déverrouillage d’un téléphone portable à la soi-disant analyse des émotions d’un candidat à l’embauche, les technologies biométriques ont toutes pour point commun de traiter des données biométriques telles que les traits du visage, la voix ou les caractéristiques comportementales des individus, dans le but d’authentifier, d’identifier ou d’évaluer ces derniers.
La première enquête de perception incluant les dispositifs d’analyses comportementales
Dans ce contexte, la Défenseure des droits a souhaité connaître l’état de connaissances et la perception des Français sur ces sujets. Les résultats de l’enquête « Perception du développement des technologies biométriques en France – Entre manque d’information et demande d’encadrement » révèlent quatre enseignements majeurs :
- L’existence d’un important déficit d’information du public. A peine plus d’un tiers des Français se sentent bien informés sur le fonctionnement ou les domaines dans lesquels interviennent les technologies biométriques. Cette connaissance partielle est fortement orientée autour des enjeux de sécurité, les usages mis en œuvre à d’autres fins étant nettement moins bien appréhendés.
- Un degré de confiance variable en fonction des entités responsables des déploiements. Si les Français font confiance aux institutions régaliennes pour avoir une utilisation raisonnée des technologies biométriques, il n’existe pas de soutien inconditionnel à un usage généralisé de ces technologies. 33% des Français hésiteraient ou renonceraient à se rendre à une manifestation si des technologies biométriques y étaient déployées par les forces de l’ordre. Par ailleurs, le rejet des technologies d’évaluation est particulièrement marqué dans le secteur privé : plus de la moitié des Français s’opposent à l’analyse systématique de leurs comportements à des fins publicitaires ou de prévention de vol dans les magasins, comme dans le cadre d’entretiens d’embauche.
- Prise de conscience des risques d’atteintes aux droits. Si de prime abord les Français n’identifient pas les risques d’atteintes aux droits que présentent les technologies biométriques, au fur et à mesure de l’enquête il devient clair pour une majorité de répondants qu’ils présentent des risques de discriminations et d’atteinte au respect de la vie privée.
- Forte volonté de voir l’encadrement juridique existant renforcé. Plus d’un tiers des Français considère que les enjeux liés aux technologies biométriques sont mal pris en compte par les pouvoirs publics. 84% d’entre eux estiment qu’un renforcement du cadre juridique applicable permettrait de mieux garantir les droits des personnes et un tiers considère qu’il est tout à fait prioritaire d’établir des interdictions dans certains domaines.
Des risques considérables pour les droits fondamentaux
Si elles peuvent présenter un certain nombre d’avantages indéniables dans la lutte contre la criminalité, ces technologies présentent des risques considérables pour les droits fondamentaux.
Elles sont particulièrement intrusives et manquent régulièrement de fiabilité. Au-delà du risque inhérent d’atteinte au droit au respect de la vie privée et à la protection des données, ces technologies présentent différents risques pour d’autres droits fondamentaux : risques d’amplification et d’automatisation des discriminations, risques d’erreur et biais aux conséquences discriminatoires, risques liés à l’effet dissuasif ou encore pour les droits de l’enfant.
Par définition, toute technologie biométrique est probabiliste et repose sur l’emploi d’algorithmes présentant un risque d’erreur. Les conséquences de ces erreurs varient en fonction des usages et peuvent aller du refus d’accès physique à un lieu ou à un événement à une arrestation erronée par les forces de l’ordre. Elles concernent majoritairement des personnes issues de groupes discriminés ou vulnérables (personnes handicapées, femmes, enfants, personnes transgenre, personnes à la peau foncée…) en raison des biais discriminatoires des algorithmes sur lesquels reposent ces technologies.
Parmi les recommandations issues du rapport publié en 2021 « Technologies biométriques : l’impératif d’agir pour le respect des droits fondamentaux », la Défenseure des droits préconise notamment d’écarter les méthodologies d’évaluation non-pertinentes, c’est-à-dire les méthodologies scientifiques non-éprouvées ou la mise en place de garanties fortes et effectives pour s’assurer du respect des droits des individus, comme par exemple l’extension de l’interdiction explicite de recours à l’utilisation de logiciels de reconnaissance faciale appliquée aux images captées par drones aux autres dispositifs de surveillance existants.
Les technologies biométriques vues par les Français : trop peu informés face à des risques considérables - Défenseur des Droits
Read More
No comments:
Post a Comment