Rechercher dans ce blog

Friday, March 10, 2023

Le droit et la technologie peuvent travailler ensemble pour éviter les dérives de l'IA - lalibre.be

Par Sophie Everarts de Velp, avocate en propriété intellectuelle et droit des technologies et Maximilien Roberti, ingénieur dans le domaine de l’intelligence artificielle chez Dun & Bradstreet

L’utilisation croissante des technologies et de l’intelligence artificielle (IA) soulève des préoccupations quant aux risques potentiels notamment pour la vie privée, la sécurité et l’éthique. Des ingénieurs conçoivent et développent ces technologies tandis que des juristes sont chargés d’élaborer des lois et des réglementations pour encadrer leur utilisation. Toutefois, les différences de développement, de culture et de langage entre ces deux univers peuvent entraver leur collaboration. Alors que certains craignent que des règles plus strictes contraignent le développement concurrentiel de ces outils, d’autres estiment qu’elles sont nécessaires pour protéger les citoyens. Cette divergence de points de vue est symptomatique de la difficulté de communication entre les mondes juridique et technique, créant ainsi un décalage important.

L'“étude” du MR sur le wokisme a tout d’un naufrage intellectuel

Utilisation abusive des données personnelles ou perte de contrôle sur les systèmes d’IA

La technologie évolue de manière exponentielle ce qui en résulte que même les experts en intelligence artificielle ont du mal à suivre le rythme, et de ce fait, rend la réglementation encore plus complexe. Les juristes doivent être en mesure de comprendre les implications de ces avancées technologiques pour réglementer efficacement et protéger les intérêts des individus dans des domaines tels que la protection des données, la sécurité, la santé, l’emploi et l’environnement. Par exemple, pour déterminer la responsabilité en cas d’accident impliquant une voiture autonome, il est essentiel de comprendre son fonctionnement.

La fiscalité a toujours été une question féministe, et elle l’est de plus en plus

Force est de constater l’importance de promouvoir l’innovation de ces technologies, qui peuvent avoir des impacts positifs sur la société et le développement économique mais qui comportent également de nombreux risques, notamment l’utilisation abusive des données personnelles (ex : comme la reconnaissance faciale en Chine, déjà en place depuis 2018), les préjugés et la discrimination (ex : selon une enquête de ProPublica, en 2016, l’algorithme COMPAS utilisé par les tribunaux américains pour évaluer les risques de récidive des personnes condamnées discriminant les personnes noires), la campagne de désinformation (ex : lors des élections de Trump et le Brexit) ou la perte de contrôle sur les systèmes d’IA (ex : en 2016, après une journée et plus de 96 000 tweets postés, Microsoft suspend temporairement le compte Twitter de son chat bot Tay en raison de ses commentaires devenus racistes et offensants). Il est donc nécessaire d’élaborer des lois pertinentes et efficaces.

Les défis de la réglementation dans un secteur en évolution rapide

L’un des principaux défis auxquels est confronté le législateur lorsqu’il s’agit de réglementer l’utilisation de l’IA est la rapidité de l’évolution du domaine. Les avancées technologiques peuvent rendre obsolètes les réglementations existantes en peu de temps. De plus, la complexité de l’IA rend difficile la compréhension des enjeux et des risques pour les non-spécialistes, compliquant ainsi l’élaboration d’une réglementation efficace.

Prenons l’exemple de la proposition de règlement européen sur l’intelligence artificielle visant à établir des règles pour l’utilisation de cette technologie. Ce règlement prévoit des restrictions sur l’utilisation de l’IA à haut risque et interdit certains systèmes. Il est actuellement au stade de proposition et pourrait être adopté en 2023. Bien entendu, d’autres réglementations s’appliquent déjà (en matière de protection des données, de cybersécurité, etc.), mais il s’agirait ici du premier règlement européen spécifique aux technologies d’intelligence artificielle.

"Ce qui est insupportable pour les hommes, c’est d’être mis en danger par le comportement d’une femme"

Bien que la consultation avec des parties prenantes et des experts en IA pour élaborer le règlement européen sur l’intelligence artificielle soit une étape louable, il est difficile de ne pas remarquer le décalage entre la rapidité de l’évolution de la technologie et la lenteur de la création d’un cadre légal. Trop souvent, la réglementation ne se met en place qu’après l’apparition de problèmes.

Juristes et ingénieurs : déjà des formations communes

Il est clair que les différences de culture et de langage peuvent constituer un frein à la communication entre les ingénieurs et les juristes. Ces derniers ont souvent des approches et des préoccupations différentes.

Face aux défis de réglementer l’IA, il est de plus en plus évident que la coopération entre les ingénieurs et les juristes est nécessaire pour garantir un cadre légal strict, une compréhension et application effective de ces règles dans la pratique. Une telle collaboration pourrait aider à identifier rapidement les risques actuels et futurs liés à cette technologie, à mettre en place des mesures appropriées pour les atténuer et à établir des priorités pour les dangers et les menaces les plus urgents, et ce, tout en maintenant l’idée de permettre aux entreprises de rivaliser face à la concurrence internationale.

Il est important de noter que de nombreuses initiatives ont vu le jour pour encourager l’échange et la collaboration entre les professionnels de différents horizons dans le domaine de l’IA. Des hubs, réseaux et incubateurs (comme notamment AI4Belgium) ont été créés pour soutenir la mise en place de nouvelles réglementations et faciliter la coopération dans des projets communs. De plus, certaines universités et entreprises offrent désormais des formations technico-juridiques, qui sont devenues essentielles et urgentes. Citons par exemple, le cours d’Advanced Ethical and Legal Aspects of AI proposé par la KULeuven dans son master en AI in Business&Industry ou encore les formations en droit des technologies de l’UNamur (DTIC) ou de la KULeuven (LL.M. en IP/IT).

Roald Dahl censuré : idéologie ou marketing?

Ces formations sont importantes car elles permettent aux ingénieurs de fournir aux juristes une compréhension technique approfondie des technologies d’intelligence artificielle, de leurs capacités et des dangers potentiels. Les juristes, pour leur part, peuvent aider à identifier les risques et les défis juridiques et éthiques liés à l’IA, proposer des solutions réglementaires appropriées et aider les ingénieurs et les entreprises à mettre en œuvre ces règles dans la pratique. Ce dialogue peut également aider à promouvoir l’innovation et le développement d’outils d’intelligence artificielle de manière responsable.

Relevons enfin que de nouveaux types de métiers émergent, comme ces récentes offres d’emploi de ChatGPT legal prompt engineer, qui combinent des compétences techniques et juridiques. La création de ces postes hybrides est essentielle et prometteuse pour combler le fossé entre ces deux domaines. Par exemple, nous pensons qu’il faudra bientôt nommer des spécialistes en intelligence artificielle mi-ingénieurs mi-juristes pour aider les juges à trancher des litiges sur ces questions, en particulier avec l’entrée en vigueur du règlement européen sur l’IA.

Limiter les impacts négatifs d’outils d’IA bénéfiques

Il est indéniable que les approches, les cultures et les langages des ingénieurs et des juristes diffèrent considérablement. Pour élaborer une réglementation efficace et mettre en œuvre des outils d’IA sûrs et éthiques, il est donc impératif de renforcer le dialogue entre ces deux professions. Bien que des initiatives aient déjà été mises en place pour faciliter cette communication, il est clair que davantage de travail est nécessaire pour renforcer cette collaboration. En travaillant ensemble, les ingénieurs et les juristes pourront créer des outils d’IA bénéfiques pour la société tout en limitant leurs impacts négatifs. C’est donc un effort commun qui doit être poursuivi pour faire progresser la réglementation, son application et l’utilisation de l’IA de manière responsable et durable.

Adblock test (Why?)


Le droit et la technologie peuvent travailler ensemble pour éviter les dérives de l'IA - lalibre.be
Read More

No comments:

Post a Comment

À Lannion, Lumibird poursuit sa course en tête des technologies laser - Le Télégramme

À Lannion, Lumibird est un fleuron industriel et technologique . Fondée en 2018, dans la foulée du regroupement de Keopsys et Quantel, l’en...