Atlantico : Le 20e siècle a été celui des idéologies (meurtrières), le 21e siècle sera celui des technologies. Quel impact les technologies auront-elles sur les équilibres sociaux dans les différents pays ?
Serge Soudoplatoff : En termes d'idéologies meurtrières, le 21ème siècle n'est pas si mal non plus, même s'il ne s'agit effectivement pas de la même échelle. Beaucoup de déséquilibres sociaux trouvent leur source dans un décalage grandissant entre la science et la technologie d'un côté, qui font des progrès fulgurants, et la sociologie qui ne suit pas. Ou plutôt, la sociologie suit de manière différentielle : une partie de la population est parfaitement à l'aise avec ces bouleversements, une partie ne l'est pas. En mathématique, on nomme ceci « vitesse de groupe » et « vitesse de phase » : la première est l'évolution générale d'un groupe, la deuxième représente les variations de la vitesse générale à l'intérieur du groupe.
Nous sommes dans un cas de figure où la vitesse de phase est très forte, provoquant des tensions sociales énormes. Comment peut-on rendre la partie de la population concernée sereine lorsque des "experts" tonitruent que les robots vont remplacer beaucoup d'emplois ? Il n'y a pas que les classes ouvrières qui soient impactées, les cols blancs peuvent s'inquiéter lorsque d'autres "experts" vous disent que ChatGPT va mettre sur le carreau 80% de leurs emplois. Un vrai expert vous dira que si la technologie transforme les emplois, elle ne remplace pas les métiers. La technologie permet même de rationaliser les processus, de libérer du temps, d'amplifier l'énergie humaine et surtout de séparer le bon grain de l’ivraie : en général, restent sur le carreau ceux qui ne se transforment pas, mais s’épanouissent ceux qui ont compris comment les technologies améliorent leur pratique.
Grâce à Internet, les connaissances circulent plus vite, technologies sont disponibles plus rapidement. C'est l'habileté du système de favoriser cette fluidité qui fera progresser certains pays et pas d’autres ; à condition que l'ensemble de la population en bénéficie. Il est donc important de réduire la vitesse de phase. Couper l'accès Internet est une grave erreur, ne pas favoriser la connaissance en est une autre. Les modèles dirigistes ne sont que de la poudre aux yeux : ils cachent le problème au lieu de le résoudre. Les modèles qui, à l'inverse, favorisent l'équilibre entre l'individu et le collectif, peuvent plus facilement réduire la vitesse de phase. Pour ce faire, la classe moyenne, le middle management, sont des éléments fondamentaux. La disparition de la classe moyenne est une catastrophe. Quel est le métier d’Astérix est une question intéressante : il n’en a pas. Il est guerrier, pas soldat. Mais si on supprime Astérix, l’équilibre du village est rompu. Astérix est le community manager du village, son rôle est fondamental. Tous les middle manager devraient être des Astérix.
Raja Chatila : Les technologies ont toujours influencé les sociétés. Elles n’ont pas attendu le XXIème siècle pour changer la façon dont nous vivons ! Dès qu’une technologie nouvelle est inventée, toute la société s’en trouve (souvent de façon assez rapide) bousculée, modifiée ; parfois en profondeur, parfois pas. La voiture, par exemple, a vu le jour entre la fin du XIXème siècle et le début du XXème siècle. Qui irait dire qu’elle n’a pas transformé nos sociétés dans le courant du XXIème siècle ? Il en va de même pour l’aviation, qui a émergé globalement au même moment. Si l’on souhaite remonter davantage, on peut aussi parler de l’électricité et ainsi de suite… Dès lors, il apparaît évident que la situation actuelle n’est pas nouvelle à proprement parler. Ceci étant dit, il existe plusieurs différences qu’il serait intéressant de noter.
Dorénavant, les nouvelles technologies émergent plus vite : elles se répandent beaucoup plus rapidement sur le globe. En outre, il faut aussi rappeler que nous y sommes beaucoup plus dépendants, en cela que nous avons de moins en moins le choix d’utiliser ou non ces nouvelles technologies. Il est désormais impossible de fonctionner sans Internet ; sauf à s’extraire complètement de la société. Dans certains cas, d’ailleurs, la technologie est devenue invisible mais demeure bien présente dans les actes de la vie quotidienne. Personne ne pense plus à l’électricité puisqu’il suffit d’appuyer sur un bouton pour allumer la lumière, par exemple. La différence, en l'occurrence avec la technologie informatique (ordinateurs, intelligence artificielle, par exemple) est importante : dans ce cas de figure, ce n’est pas qu’elle est invisible… c’est plutôt que nous ne sommes pas toujours au courant de l’utilisation que nous sommes en train d’en faire. Quand on travaille sur un ordinateur, on utilise de façon sous-jacente une série de programmes et de systèmes présents précisément pour traiter nos requêtes. Pour autant, tous les utilisateurs n’ont pas nécessairement conscience de leur existence.
Cette transformation de la société est assez naturelle. Elle modifie notre quotidien, notre fonctionnement et soulève plusieurs questions relatives à l’accès à la technologie ainsi qu’à sa facilité d’utilisation, mais cela ne s’arrête pas là. Il faut aussi évoquer la dualité que créent certaines technologies contemporaines : dans le cadre de leur utilisation même, ces nouveautés présentent parfois des aspects discutables, potentiellement capables de désagréger nos sociétés. Je pense notamment à un certain nombre de médias sociaux, qui nous permettent évidemment d’échanger. Ce ne sont pas, cependant, de simples moyens de transmission de l’information : du fait des algorithmes de fonctionnement de leur système, les utilisateurs sont orientés vers certains types de contenus, certaines informations, certaines publicités… Il y a donc transformation de nos interactions même, sans que nous nous en apercevions réellement, ce qui peut modifier considérablement le lien social. Ces mécanismes ont évidemment une influence sur l’information que l’on consomme, sur nos connaissances mais aussi sur la manière que l’on peut avoir de penser : c’est en effet à nous qu’il revient de s’adapter à la machine, et non l’inverse. Dès lors, notre mode de fonctionnement se fait plus systématisé et nous maintient en relation avec le système (les médias sociaux, ici) que l’on utilise.
Si la transformation actuelle de la société n’est donc pas tout à fait inédite, elle prend tout de même une dimension considérable. Ce changement est qualitatif et disruptif en cela qu’il touche nos interactions et nos socles de connaissances communs. Nous avons maintenant des informations différentes, dans certains cas des “vérités” différentes et nous sommes confrontés à des systèmes qui enferment les internautes dans des communautés en fonction de ce qu’ils ont pu consulter par le passé. Difficile, dans ce cas, de ne pas parler de manipulation permanente. Il importe d’en être question pour pouvoir contrecarrer ce types d’effets, gérer de telles transformations ou modifier l’impact sur notre société.
Un autre élément important, soulevé notamment dans la formulation de votre question, c’est l’opposition entre idéologies et technologies. A mon sens, il ne faut pas les opposer : les idéologies persistent au XXIème siècle et la technologie progressait déjà au XXème siècle. D’autant que les avancées technologiques peuvent aussi être motivées par certaines idéologies, rappelons-le.
Quelles pourraient être les conséquences géopolitiques de l’IA et de l’impact des technologies ?
Serge Soudoplatoff : La santé est un domaine fondamental en termes de politique. C'est un domaine qui non seulement est en retard dans son passage au numérique, mais qui offre des révolutions technologiques très disruptives. Par exemple, tout ce qui est manipulation de l'ADN peut effrayer, et l'on peut comprendre que CRISPR-Cas9 soit considéré comme diabolique. Imaginons l'impact de cette technologie dans les contrées où la culture populaire favorise l'enfant mâle ? Amin Maalouf a écrit un roman très visionnaire sur ce sujet : « Le premier Siècle après Béatrice » : ceci conduit à des guerres sanglantes, la femme devenant une denrée rare donc convoitée et enfermée ; les hommes s'entretuant parce que compétitifs, etc.
On dit que l'effondrement du communisme s'est accéléré quand la mortalité infantile a augmenté : d'une manière plus générale, la maîtrise des outils modernes en santé par les gouvernements sera crucial pour la stabilité du système.
L'IA a soif de données ; il est même coutume de dire que les données sont le pétrole du XXIème Siècle, ce qui n'est pas faux. Il y a un énorme écart entre les pays pour lesquels la protection de l'individu prime sur l'acquisition des données, et ceux pour lesquels c'est l'inverse. La Chine possède un double avantage : un contrôle sévère du système et une population nombreuse. Ajoutons une volonté politique - être en 2050 le leader en IA - et nous avons tous les ingrédients pour que ce pays devienne autorité en la matière. Idem avec les communications quantiques, autre technologie disruptive, où la Chine réussit des exploits.
Cela dit, l'IA, comme la robotique d'ailleurs, est portée par un autre mouvement très important : l'Open Source. On pourrait y voir de la naïveté ; je pense qu'il s'agit plus d'une réponse à une question à laquelle l'un des aphorismes du célèbre livre "Barenton, Propos d'un confiseur" a magnifiquement répondu : "ce ne sont pas tes brevets qui te protégeront de la concurrence, mais ta rapidité d'exécution". Et tout le mouvement Open Source agit en faveur de cette rapidité.
La technologie se doit d'être en phase avec la sociologie et l'organisation. Analyser la guerre en Ukraine sous l'angle du management l'illustre bien : d'un côté une armée hyper centralisée, fonctionnant en silo, où les soldats ne sont que des exécutants à qui on demande d'obéir sans discuter ; d'une autre une armée formée aux méthodes Américaines : tout soldat doit, où qu'il soit sur le champ de bataille, et à tout moment, pouvoir disposer de l'information dont il a besoin pour mener à bien sa tâche - un modèle agile.
En bref : au-delà de la technologie, c'est la cohérence entre la sociologie et les technologies qui donnera des avantages géostratégiques. La tension actuelle entre des modèles autoritaires et des modèles démocratiques est très forte ; et si les premiers ont plutôt le vent en poupe, c'est parce qu'ils donnent l'illusion de la protection. Mais ils sont exactement l'inverse de ce qu'il faut faire pour répondre aux grands défis actuels.
Raja Chatila : L’intelligence artificielle désigne des logiciels capables de traiter d’e très importantes masses de données dont on dispose, de façon statistique, pour nous permettre d’en faire sens. Elle permet donc de détecter les éléments cachés dans ces données et, potentiellement, de les exploiter. C’est une technologie de plus en plus puissante aujourd’hui, tant et si bien que nous sommes désormais en mesure que ce n'est n’est pas nous, humains, qui allons faire sens et exploiter les données en question. Au lieu de quoi, nous avons parfois tendance à laisser la machine prendre la décision ou à suivre l’option qu’elle présente. Cela n’a rien d’étonnant : il est plus facile de s’en remettre à son analyse, de lui faire confiance. C’est d’autant renforcé que, dans la plupart des cas, ces résultats sont corrects ou de bonne qualité. De plus, quand ils ne le sont pas, nous n’avons pas toujours la capacité ou la compétence nécessaire pour identifier l’erreur ; l’approximation.
Ce n’est pas parce que nous décidons de faire confiance à ces machines qu’elles en sont nécessairement dignes. Toutes les tentatives de réglementation, de standardisation et de mise en place de mécanisme de vérification ainsi de validation émanent précisément d’une volonté de s’assurer de la fiabilité d’un tel outil. C’est parce qu’une calculatrice fonctionne sur la base de système très largement vérifié - et que, par conséquent, la probabilité d’une erreur est infime - que l’on peut lui accorder notre confiance. Dans le cadre de l’intelligence artificielle, en revanche, les systèmes sont fondés sur la base de statistiques. Dès lors, ils sont, par définition, approximatifs. Les résultats sont probabilistes… Ils ne sont donc pas exacts. Et quand bien même la probabilité est forte, il n’est pas possible de ne pas envisager le risque d’une approximation trop grande ou même d’une erreur. Des systèmes comme Chat-GPT, qui génèrent du texte auxquels nous prêtons une valeur de vérité, mélangent en vérité le vrai, le faux, l’approximatif. C’est inévitable : ils sont faits comme ça. C’est bien sûr problématique et c’est pour cela qu’on ne peut se contenter de laisser faire. Il est primordial de bien maîtriser ces avancées technologiques.
Nous sommes en train de parler d’une technologie qui est à la fois très puissante et très diffusible. Cela signifie qu'elle est susceptible de se répandre dans tous les secteurs (économiques, par exemple) de notre société. Cela fait d’elle un enjeu sociétal, mais aussi économique ou industriel. Il faut avoir la capacité de produire les systèmes dont elle dépend, de les diffuser, d’en exploiter les ressources… Cet enjeu devient automatiquement géopolitique en cela que l’IA est largement utilisée dans le monde entier. Les nations capables de produire et d’exporter de tels systèmes vont donc maîtriser beaucoup de choses : d’abord l’aspect purement financier, bien sûr, qui contribuera à les rendre plus riches, mais aussi la diffusion des connaissances puisque les données sur lesquels ces systèmes sont entraînés sont forcément dans une certaine langue, provenir d’une certaine culture… Elles seront aussi orientées vers certains usages. Qui maîtrise la technologie maîtrise aussi tous ces éléments.
Il y a donc des enjeux économiques, certes, mais aussi d’indépendance culturelle. Aujourd’hui, les différents pays qui ont la capacité financière pour y prétendre essaient d’ores et déjà d’avoir une présence ainsi qu’une puissante activité dans le domaine. En l'occurrence, il est essentiellement question des Etats-Unis, de la Russie, de la Chine et dans une moindre mesure de l’Europe. Celui qui maîtrisera le plus ces technologies pourra de facto imposer un certain rythme, certaines modalités en plus de bénéficier des différentes applications qu’elle offre. L’enjeu géopolitique est énorme. La comparaison n’est pas parfaite, mais il est difficile de ne pas penser à la situation du pétrole : les compagnies qui en assurent l’extraction, la diffusion et permettent son utilisation (sous toutes ses formes) bénéficient d’un pouvoir considérable. Naturellement, les pays qui hébergent ces entreprises bénéficient aussi d’un pouvoir géopolitique important.
Pour l’heure, la situation ne s’avère pas très avantageuse pour l’Europe : ce n’est pas elle qui produit les ordinateurs ou les puces que l’on retrouve dans de nombreuses machines, par exemple. Sans paraphraser Vladimir Poutine, il est vrai de dire que celui qui contrôlera l’IA aura une influence géopolitique considérable.
Peut-on arriver à un moment où les technologies deviendront hors de contrôle ?
Serge Soudoplatoff : L'ordinateur HAL (2002 l'Odyssée de l'espace) essaya d'échapper au contrôle humain. La réponse de l'humain fut simple : débrancher les circuits mémoire de la machine. Pour qu'une machine devienne hors de contrôle, elle se devrait déjà d'être l'égal de l'humain dans toutes ses dimensions. Or non seulement nous sommes le résultat d'environ 4 milliards d'années d'essai-erreur, mais surtout nous avons un grand avantage sur la machine : nos molécules sont en trois dimensions. C'est Pasteur qui formalisa d'ailleurs la grande différence entre la molécule du vivant de la molécule du non vivant : la première est asymétrique, la deuxième ne l'est pas.
Lorsque la technologie arrivera à faire aussi bien que l'être humain, allant de se reproduire (si possible en éprouvant du plaisir) à boire une bonne bière avec des amis, alors oui elle pourra, éventuellement, être hors de contrôle. Cela dit, il faudra du temps pour reproduire ces quatre milliards d'années d'essai-erreur, même en les condensant...
En revanche, l'actualité nous illustre tous les jours que ce sont surtout les individus qui deviennent hors de contrôle. Quand le mensonge devient une norme, que les fondamentaux de la science sont bafoués, que l'arrogance devient le mode de management, le système aura du mal à trouver un équilibre bénéfique à tous. La technologie est neutre ; Internet est un Pharmakon, l'humain est psychologiquement plus fragile.
Raja Chatila : En vérité, les technologies sont d’ores et déjà hors de contrôle. Dès lors qu’il n’est plus possible de s’en passer, que l’on ne peut plus choisir ou non de l’utiliser, il y a déjà perte de contrôle.
Néanmoins, si la question concerne notre supposée capacité à appuyer sur le bouton “off” le jour où la situation deviendrait hors de contrôle ainsi que peuvent le dépeindre certaines œuvres de science-fiction… Il faut bien reconnaître que la réponse est la même : nous n’en serions tout simplement pas capables. Nous ne pouvons pas débrancher un système qui contrôle d’ores et déjà tant des choses ! A partir du moment où l’on confie des choses aussi vitales que les respirateurs dans les hôpitaux ou la gestion de la masse monétaire au système numérique, pour ne citer que quelques exemples, il n’est tout simplement plus possible de tout arrêter en cas de scénario catastrophe.
Supposons, dès lors, qu’un système communiquant sur internet devienne malveillant et cherche à faire du mal à l’humanité… Nous ne serions tout simplement pas en mesure de l’arrêter.
Tout ceci nous permet d’arriver à la vraie question : comment faire pour s’assurer que la prise de contrôle par les machines n’arrive jamais ? Je commencerai par dire que je ne souscris pas à l’idée d’une prise de contrôle intentionnelle, telle que peut la représenter la science-fiction. Il ne faut pas perdre de vue que les machines ne savent tout simplement pas que nous existons. Elles ignorent ce qu’est l’humanité et ne développeront pas de velléités de nous éradiquer. Il n’y a donc pas de guerre entre les humains et les machines. Ces dernières ne chercheront pas, intentionnellement, à faire du mal à l’humanité. Ce scénario n’est pas fondé et, dès lors, est irréaliste.
Le problème, me semble-t-il, vient du fait que la machine est bête. Si elle peut devenir dangereuse, c’est parce qu’elle fait, bêtement, des choses systématiques, lesquelles peuvent alors devenir néfastes. Il n’est pas question d’une super-intelligence qui planifierait notre extinction ou la prise de pouvoir. C’est simplement, à bien des égards, un défaut de conception. Bien souvent, ces derniers résultent d’une confusion entre ce que l’on souhaite que la machine fasse et la façon dont on programme la tâche à accomplir. Un exemple simple permet d’illustrer le problème : prenons le cas d’un robot chargé d’arroser un champ ou d’épandre un insecticide. Si on ne lui dit pas quand s’arrêter, il va noyer ce champ. On aura conçu le système pour accomplir sa tâche, potentiellement très bien… mais faute de cadre, elle se met à fonctionner de façon incontrôlable.
Que faire pour éviter les tragédies de masse qui pourraient arriver dans le sillage de ce siècle des technologies ?
Serge Soudoplatoff : Le XXème siècle a connu des guerres sanglantes avec des morts dont l'unité est le million. Actuellement, le moindre massacre de quelques dizaines de civils n'est plus du tout acceptable, et c'est bien. Bien sûr, restent la guerre nucléaire, le global warming, etc... Mais beaucoup de tragédies sont maintenant "locales" mais avec un rayonnement mondial.
Atteindre la stabilité dans un système dynamique se nomme l'homéostasie. Notre corps humain en est un parfait exemple : qu'il fasse -10 ou +30 dehors, notre température interne reste stable, et ne change que si nous avons de la fièvre. Or cette homéostasie est atteinte lorsque l'information circule bien dans notre corps. C'est le rôle important, entre autres, des ARN messagers.
La fluidité de l'information, de la connaissance, du savoir, et son partage, est la condition fondamentale pour éviter que les systèmes partent en dérive. Plus nous partageons ces éléments, plus le système peut atteindre l'homéostasie.
En mathématique, il y a un concert important : l'horizon de Lyapounov. Ce grand mathématicien a montré que l'on peut créer des plages de stabilité dans un environnement chaotique, en ayant une connaissance précise des paramètres du système. L'information doit non seulement être partagée, mais elle doit être très précise.
Un des grands avantages du numérique est la capacité de faire des simulations ; et plus généralement d'intégrer le réel et le virtuel. La précision de la connaissance des paramètres du système, et leur partage, sont les fondamentaux pour obtenir des simulations de qualité. Et nous pourrions rajouter une couche intéressante : l'apprentissage par le jeu. Tous les mammifères apprennent en jouant, sauf nous après l'école maternelle. Le jeu permet une combinaison de fun, d'engagement, et de collaboration. Toutes les expérimentations pour expliquer les enjeux fondamentaux de notre monde en faisant jouer ont toujours donné des résultats extraordinaires.
Nous avons à notre disposition des technologies extraordinaires. Il faut que la sociologie recolle, et vite ; il faut réduire la vitesse de phase. Pour cela, les modèles communautaires, basés sur la viralité, sont les plus performants. Mais ces modèles propagent avec autant d'efficacité le bien que le mal. Il faut donc renforcer la vraie science, qui nous fournit des données précises, pour alimenter ces modèles communautaires. Et le jeu nous apporte une dimension de fun qui aide à atteindre l'homéostasie.
Raja Chatila : Comme dit précédemment, il est nécessaire de mieux cadrer la demande… ainsi que la conception que nous pouvons avoir de la machine. Quiconque conçoit un système informatique se doit de suivre un système extrêmement rigoureux, de développement. Il faut vérifier que les données de fonctionnement sur lequel se base ce système soient fiables, correctes, représentatives. Il faut aussi que le système en question soit vérifié, validé et testé en conditions réalistes. L’intégralité du processus de déploiement doit être contrôlé avec assiduité pour pouvoir définir correctement le domaine d’action du système.
Un système ne peut fonctionner correctement que si l’on suit ces procédures. Des normes doivent êtres définies, il faut aussi mettre en place des certifications, délivrées par des autorités indépendantes qui gagent de la fiabilité du produit fini. Sans tout cela, on peut effectivement s’attendre à tout et n’importe quoi. Les exemples, malheureusement, ne manquent pas ; en témoignent notamment les problèmes rencontrés par le Boeing 737 Max, dont le système était défaillant parce que les phases de certifications n’ont pas été rigoureusement suivies. Le développement de système robuste, fiable, digne de confiance, c’est une science en soi qui nécessite beaucoup de travaux. C’est très complexe et le danger, me semble-t-il, c’est précisément d’oublier tout ça. Sans processus rigoureux d’encadrement, une mise sur le marché peut s’avérer dangereuse. Nous avons besoin de gardes-fous.
Le 20e siècle a été celui des idéologies (meurtrières), le 21e siècle sera celui des technologies - Atlantico
Read More
No comments:
Post a Comment