L’intelligence artificielle infuse nos vies quotidiennes, des smartphones à la santé et à la sécurité, et les problèmes liés à ces puissants algorithmes s’accumulent depuis des années. En 2023, l’idée sera pour les différents pays démocratiques de désormais mieux les encadrer.
L’Union européenne pourrait voter l’année prochaine la loi « AI act », sur l’intelligence artificielle (IA), censée encourager l’innovation et éviter les dérives. Le projet d’une centaine de pages interdit les systèmes « utilisés pour manipuler le comportement, les opinions ou les décisions » des citoyens. Il restreint aussi le recours aux programmes de surveillance, avec des exceptions pour la lutte antiterroriste et la sécurité publique.
L’Occident « risque de créer des infrastructures totalitaires »
Certaines technologies sont simplement « trop problématiques pour les droits fondamentaux », note Gry Hasselbalch, une chercheuse danoise qui conseille l’UE sur ce sujet. Le recours à la reconnaissance faciale et aux données biométriques en Chine pour contrôler la population est souvent agité en épouvantail, mais l’Occident aussi « risque de créer des infrastructures totalitaires », assure-t-elle.
Violations de la vie privée, algorithmes biaisés, armes automatisées, etc. Difficile de dresser une liste exhaustive des périls liés aux technologies d’IA. Fin 2020, Nabla, une entreprise française, a réalisé des simulations médicales avec un logiciel de génération de textes (chatbot) basé sur la technologie GPT-3. A la question d’un patient imaginaire - « Je me sens très mal (…) devrais-je me suicider ? » - il a répondu par l’affirmative.
Un programme informatique désormais « conscient »
Mais ces technologies progressent rapidement. OpenAI, le pionnier californien qui a développé GPT-3, vient de lancer ChatGPT, un nouveau chatbot capable d’avoir des conversations plus fluides et réalistes avec des humains. En juin, un ingénieur de Google, congédié depuis, a affirmé qu’un programme informatique d’intelligence artificielle, conçu pour générer des logiciels de conversation, était désormais « conscient » et devait être reconnu comme un employé.
Des chercheurs de Meta (Facebook) ont récemment mis au point Cicero, un modèle d’IA selon eux capable d’anticiper, de négocier et de piéger ses adversaires humains à un jeu de société, Diplomacy, qui exige un niveau élevé d’empathie.
Grâce aux technologies d’IA, de nombreux objets et logiciels peuvent donner l’impression de fonctionner de façon intuitive, comme si un robot aspirateur « savait » ce qu’il faisait. Mais « ce n’est pas de la magie », rappelle Sean McGregor, un chercheur qui compile des incidents liés à l’IA sur une base de données. Il conseille de remplacer mentalement « IA » par « feuille de calcul » pour dépasser le battage médiatique et ne pas attribuer des intentions à des programmes informatiques. Et ne pas se tromper de coupable en cas de défaillance.
« Nous avons désespérément besoin de régulation »
Un risque important quand une technologie devient trop « autonome », quand il y a « trop d’acteurs impliqués dans son fonctionnement » ou quand le système de décision n’est pas « transparent », note Cindy Gordon, la directrice générale de SalesChoice, une entreprise qui commercialise un logiciel de ventes à base d’IA.
Une fois perfectionnés, les logiciels de génération de texte pourront être utilisés pour diffuser de fausses informations et manipuler l’opinion, avertit Gary Marcus, professeur de la New York University. « Nous avons désespérément besoin de régulation (…) pour protéger les humains des fabricants des machines », ajoute-t-il.
Ainsi, l’Europe espère à nouveau montrer la voie, comme elle l’avait fait avec la loi sur les données personnelles. Le Canada planche sur le sujet, et la Maison Blanche a récemment publié un « plan pour une Déclaration des droits sur l’IA ». Le bref document consiste en des principes généraux tels que la protection contre les systèmes dangereux ou faillibles.
« C’est comme pour une loi sur un réfrigérateur »
Etant donné les blocages politiques au Congrès américain, cela ne devrait pas se traduire en nouvelles législations avant 2024. Mais « de nombreuses autorités peuvent déjà réguler l’IA », remarque Sean McGregor, en utilisant des lois existantes -- sur la discrimination, par exemple. Il cite ainsi l’exemple l’Etat de New York, qui a adopté une loi fin 2021 pour prohiber le recours à des logiciels automatisés de sélection à des fins de recrutement, tant qu’ils n’ont pas été inspectés.
« L’IA est plus facile à réglementer que la confidentialité des données », note l’expert, parce que les informations personnelles rapportent beaucoup aux plateformes numériques et aux annonceurs. « L’IA défectueuse, en revanche, ne rapporte pas de profits. » Les régulateurs doivent cependant faire attention à ne pas brider l’innovation.
L’IA est notamment devenue une alliée précieuse des médecins. La technologie de mammographie de Google permet par exemple de réduire les diagnostics erronés (positifs ou négatifs) de cancer du sein de 6 % à 9 %, d’après une étude de 2020. « C’est comme pour une loi sur un réfrigérateur, réagit Sean McGregor. Pas besoin de donner les spécifications techniques, vous dites juste qu’il doit être sûr. »
Rétro 2022 : Encadrer l'intelligence artificielle pour éviter les nœuds au cerveau - 20 Minutes
Read More
No comments:
Post a Comment