Il y a quelques semaines, des employés de Samsung ont demandé à ChatGPT d’analyser du code et de résumer des notes de réunion. Ce faisant, ils ont communiqué des secrets industriels à OpenAI, l’entreprise derrière ChatGPT. Les prochaines versions de ChatGPT auront sans doute appris ces informations confidentielles… et risquent de les relayer à leurs millions d’utilisateurs.
À la suite de ces événements, Samsung a interdit à ses employés l’utilisation des intelligences artificielles (IA) conversationnelles, comme ChatGPT, Google Bard et Bing Chat. Selon Samsung, ces IA sont une menace sérieuse pour la protection des données sensibles.
Pourtant, pendant ce temps, la Commission nationale de l’informatique et des libertés (CNIL), chargée notamment d’appliquer le règlement général pour la protection des données (RGPD), tarde à réagir, malgré la réception de 5 plaintes, et malgré des précédents comme le cas de Clearview AI, puni pour leur traitement illicite et sans consentement suffisant de données personnelles disponibles sur le Web.
La régulation traîne
Cette étrange situation illustre un problème plus général. Alors que les nouvelles technologies bouleversent nos sociétés, leur régulation est arriérée. En particulier, la présomption de non-conformité – pourtant déjà abondamment appliquée dans les industries matures comme l’aviation, la pharmaceutique et l’agroalimentaire – est cruellement déficiente à la régulation numérique.
En effet, les régulateurs du digital n’interviennent presque jamais en amont du déploiement des technologies. C’est même probablement après l’adoption massive de ChatGPT, TikTok ou du Bitcoin, que la question de la conformité avec les lois déjà existantes s’est posée. Pire encore, la charge de la preuve de non-conformité retombe trop souvent sur la partie civile. Cette situation est inacceptable, pour de nombreuses raisons.
Premièrement, la société civile a rarement accès à des données incriminantes. En fait, c’est souvent grâce à des fuites de données ou au courage de lanceurs d’alerte, que ces données incriminantes sont apprises par les régulateurs, à l’instar des Facebook Files révélés par Frances Haugen, qui montrent (entre autres) le rôle dévastateur des algorithmes de Facebook sur les démocraties.
L’opacité des entreprises
Deuxièmement, cette situation encourage l’opacité des entreprises. Beaucoup de mystères entourent ainsi le dernier algorithme GPT-4 d’OpenAI. De façon plus préoccupante encore, Google, Meta et Microsoft ont successivement démantelé leurs équipes d’éthique, et restreint l’accès à des discussions internes à ses employés, réduisant ainsi leur transparence en interne.
Troisièmement, l’inaction des régulateurs encourage des développements précipités, non seulement Google, Microsoft et Meta, mais aussi Baidu, Hugging Face ou encore le Technology Innovation Institute d’Abu Dhabi. Cette précipitation s’accompagne d’une réduction alarmante des standards de sécurité, bien documentée dans le cas de Google.
Quatrièmement, les technologies du numérique restent massivement utilisées tant que les régulateurs n’agissent pas. Si elles présentent des risques, chaque jour d’inaction légale met davantage d’entreprises et de vies en danger, notamment dans le cas de l’exposition aux ransomwares ou de la santé mentale des utilisateurs de TikTok.
Enfin, l’inapplication de lois déjà existantes, faute par exemple d’enquêtes dignes de ce nom, décrédibilise toutes les lois. À l’heure où l’Europe s’arme de nouveaux textes légaux très exigeants, comme l’AI Act ou le Cyber Resilience Act, la question des moyens pour les faire appliquer se pose sérieusement.
Le numérique ne doit pas faire exception
Il existe toutefois une parade simple et efficace à ces problèmes, déjà abondamment appliquée dans les industries matures, à savoir la présomption de non-conformité. Typiquement, par défaut, un nouvel Airbus n’a pas le droit de vol. Et c’est à l’entreprise de démontrer aux régulateurs la conformité de leur nouveau produit avec les réglementations déjà existantes.
En finance, un principe similaire de présomption de blanchiment a d’ailleurs été récemment introduit pour les montages financiers douteux, rejetant ainsi la charge de la preuve à ceux qui possèdent les données les plus pertinentes pour déterminer la légalité des opérations financières. Cette disposition a été qualifiée de « game changer » par des enquêteurs et des magistrats « dithyrambiques ».
Alors que les incidents liés à TikTok et ChatGPT, mais aussi à Facebook, YouTube et Twitter, ne cessent de se multiplier, que la recherche pointe vers l’impossibilité de sécuriser les IA modernes, et que les données les plus pertinentes pour déterminer la légalité de ces systèmes demeurent le monopole des entreprises qui développent ces produits, il paraît urgent que les régulateurs du numérique adoptent eux aussi la présomption de non-conformité, et deviennent ainsi conformes à l’état de l’art de la régulation.
ChatGPT : « Alors que les nouvelles technologies bouleversent nos sociétés, leur régulation est arriérée » - La Croix
Read More
No comments:
Post a Comment