Follow the money, dit l’adage. Dans leurs récentes sorties publiques très remarquées, un nombre considérable d’experts en technologie ont comparé à une pandémie ou à une guerre nucléaire le risque que pose l’intelligence artificielle (IA) telle qu’on la voit en ce moment. Doit-on les croire sur parole ?
Les craintes liées à l’IA semblent porter sur une perte de contrôle de son évolution. L’émergence rapide de dialogueurs comme ChatGPT et de générateurs d’images comme Midjourney a surpris tout le monde, y compris leurs créateurs. Et ce n’est que le début de l’accélération technologique, disent-ils.
Ultérieurement, une IA qui aura sa propre conscience et qui pourra s’améliorer elle-même sans aide extérieure verra le jour. Ce qu’elle décidera de faire subir à l’humanité est ce qui, apparemment, empêche de dormir plusieurs experts de l’IA ces jours-ci.
C’est le syndrome de l’optimiseur de trombones, illustre Philippe Beaudoin, fondateur de l’entreprise d’IA Waverly, à Montréal. « Une machine crée des trombones avec du fer. Sans contraintes et à court de matériaux, elle finit par extraire le fer du sang humain pour continuer de faire des trombones. »
Dans une courte lettre publiée mardi, des experts en IA disent qu’il faut mieux contrôler la technologie, sinon on va finir par créer un optimiseur de trombones pour vrai, explique M. Beaudoin.
On a beau avoir créé l’Agence internationale de l’énergie atomique, si le nucléaire est accessible à des gens qui sont hors de contrôle, c’est l’existence même de la technologie qui est le problème, continue l’entrepreneur en IA, qui a une position plus modérée à l’égard de l’IA que ses actuels détracteurs.
« Leur position est peut-être motivée par une certaine peur, mais on n’y trouve aucune suggestion de mesures, et c’est proposé par des gens qui en profitent pleinement. »
À lire aussi
Le double jeu d’OpenAI
Un jeune multimillionnaire de la Silicon Valley redoute le pire. Selon lui, le futur de l’espèce humaine est menacé par un supervirus créé en laboratoire, une guerre nucléaire ou une superintelligence artificielle qui s’attaquera aux humains par tous les moyens. Ou les trois en même temps.
Ce jeune multimillionnaire a déjà en sa possession suffisamment d’armes, d’antibiotiques, d’eau, de piles, de masques à gaz et même un énorme terrain privé où il peut se réfugier en cas d’apocalypse imminente. Cette personne, dont le portrait a été dressé par le New Yorker, a aujourd’hui 38 ans et s’appelle Sam Altman. Il s’agit du grand patron d’OpenAI, qui a mis en ligne l’automne dernier ChatGPT, le fer de lance de la révolution technologique qui se produit ces jours-ci.
L’émergence de ChatGPT et des autres technologies dans son genre inquiète depuis quelques semaines des chefs de file du développement de l’IA. De grands noms de la recherche scientifique et universitaire avertissent qu’il faudrait déjà mieux encadrer l’existence même de cette technologie, car elle pourrait tomber entre les mains de personnes mal avisées et avoir des conséquences importantes.
« Réduire les risques de l’IA devrait être une priorité mondiale au même niveau que les pandémies et la guerre nucléaire », ont averti plus tôt cette semaine plusieurs de ces chercheurs, y compris le Montréalais Yoshua Bengio et le Torontois Geoffrey Hinton.
Sam Altman est cosignataire de cette très courte lettre ouverte.
Yann Le Cun, un autre chercheur de l’IA très réputé qui dirige la recherche chez Meta, a récemment remarqué que des entrepreneurs indépendants de fortune comme M. Altman font preuve d’une certaine forme d’hypocrisie en signant la lettre.
« Sam Altman n’est pas en train de dire qu’il va arrêter son travail », résume Philippe Beaudoin. Peut-être espère-t-il que les cadres législatifs notamment attendus en Europe et au Canada — les États-Unis pourraient les joindre très bientôt — limiteront le développement de l’IA d’une façon qui bénéficiera à OpenAI. Son entreprise, après tout, est loin d’être rentable et pourrait mal s’adapter à une concurrence accrue.
Le longtermisme californien
Un courant de pensée très populaire parmi les bonzes de la Silicon Valley est le « longtermisme », selon lequel il faut tout faire immédiatement pour assurer la survie des générations futures. Ça comprend la conquête de Mars, la création d’un système financier international à l’abri des banques centrales, la mise en place d’une superintelligence capable de prendre les meilleures décisions à court terme pour assurer le bien-être des humains dans un futur plus lointain.
Les adeptes du longtermisme redoutent le scénario du pire : que laissée à elle-même, l’humanité trouve le moyen de se saborder elle-même. D’où la proximité de ce courant de pensée avec celui du survivalisme.
Avant de diriger OpenAI, Sam Altman dirigeait un influent incubateur de nouvelles technologies de Californie et s’est mis à financer des projets très risqués et à très long terme qui coïncidaient avec ces deux philosophies.
« Ces philosophes de l’apocalypse n’ont pas une feuille de route si reluisante et on les écoute encore, remarque Philippe Beaudoin. Le longtermisme est seulement un courant de pensée. Ce qui est nouveau, c’est de voir des chercheurs réputés se joindre à ce courant. Les opposants à cette vision, on devrait peut-être les écouter plus eux aussi. »
À voir en vidéo
Les experts mettent en garde contre l'IA, mais à qui profite le scénario du pire? - Le Devoir
Read More
No comments:
Post a Comment