Publié le 25 févr. 2023 à 15:50Mis à jour le 25 févr. 2023 à 15:57
Dans l'ébullition qui a suivi la parution de ChatGPT , Meta passe plutôt inaperçu. Pour l'instant, c'est surtout Microsoft et son partenaire OpenAI qui semblent faire la course en tête. Le géant dirigé par Satya Nadella veut utiliser l'intelligence artificielle dite « générative » pour révolutionner une grande partie de ses produits, de son moteur de recherche Bing à son application de messagerie Teams, en passant par sa filiale GitHub, qui met l'IA au service des développeurs.
Pris de court, Alphabet, la maison mère de Google, a dégainé son propre chatbot. Baptisé Bard, ce dernier « récolte des informations sur le web pour fournir des réponses nouvelles, de très haute qualité, » assure son PDG Sundar Pichai. Une riposte aux effets encore incertains - le cours de l'action Alphabet a chuté le jour où ce nouvel outil a été présenté -, qui doit permettre à Google de défendre le bastion sur lequel repose tout son empire : la recherche en ligne.
Pendant qu'Alphabet et Microsoft se battent par chatbots interposés, Meta se montre nettement plus discret. L'ancien Facebook investit pourtant plus de 30 milliards de dollars par an dans les nouvelles technologies. « L'un de nos objectifs pour Meta est de bâtir sur nos recherches, pour devenir un leader dans l'IA générative en plus de notre travail sur l'IA de recommandation, » a dit récemment Mark Zuckerberg à des analystes.
Des ours dans l'espace
Le groupe californien peine à se remettre d'un épisode particulièrement gênant. En octobre, l'entreprise a publié un nouveau modèle de langage, Galactica, avant de le retirer après trois jours, face à un déluge de critiques sur internet. Cette intelligence artificielle était pourtant « entraînée sur la connaissance scientifique humaine, » selon Meta. Elle a eu accès à 48 millions d'articles scientifiques, sites web, textes de conférences et entrées d'encyclopédies.
Ce modèle de langage est capable de « faire le résumé d'articles académiques, résoudre des problèmes de maths, générer des articles pour Wikipedia, écrire du code scientifique, annoter des molécules et des protéines, et bien d'autres choses encore, » vantait l'entreprise californienne le jour de sa publication. Mais certaines de ses réponses ont fait hurler de rire les internautes.
Un utilisateur a par exemple demandé à Galactica de rédiger un texte pour Wikipédia sur les ours qui vivent dans l'espace. Sans hésiter, cette dernière affirme que « l'Union soviétique a été le premier pays à envoyer un ours dans l'espace, » donne des détails sur cet ours et les raisons pour lesquelles il a été choisi, avant de dérouler un tapis d'informations fausses qui sonnent vaguement plausibles.
Hallucinations
« Si vous avez des personnes qui cherchent à casser un modèle, cela ne demande pas beaucoup d'efforts pour trouver le cas limite qui va le faire dysfonctionner, commente Sean McGregor, un chercheur spécialisé dans l'IA. Pour ces larges modèles de langage, c'est comme s'ils avaient un fusil sur la tempe leur demandant de produire la réponse la plus appropriée possible. Ce qui explique qu'ils racontent parfois n'importe quoi, ils produisent des réponses qui ont l'air vrai mais qui ne le sont pas. »
Ce problème n'est pas limité à Meta. Mais le géant californien, souvent pointé du doigt pour son rôle dans la diffusion de fausses informations , veut à tout prix éviter la controverse. Le groupe « doit se montrer plus prudent que des entreprises [de petite taille] comme OpenAI ou StabilityAI, note Yoram Wurmser, analyste chez Insider Intelligence. C'est même le cas comparé à Microsoft, puisque Bing est un acteur relativement marginal dans la recherche en ligne. Ils peuvent davantage se permettre de prendre des risques. »
« Ce sont des systèmes qu'on ne contrôle pas très bien, qui génèrent parfois des choses qui ne sont pas acceptables, admet Jérôme Pesenti, qui dirigeait les équipes de Meta sur l'intelligence artificielle jusqu'en juin dernier. Donc tout dépend des domaines d'utilisation, de la tolérance des utilisateurs et de leur maturité. Galactica, c'était un beau projet de recherche, mais qui n'était pas assez robuste pour un usage grand public. »
Quatre autres usages de l'IA
Malgré cette erreur de jugement, Meta reste à la pointe de la recherche sur l'intelligence artificielle. Le groupe californien n'a sans doute pas intérêt à diffuser ses outils auprès du grand public. Mais cela ne l'empêche pas de développer des outils s'appuyant sur l'IA en interne, bien au contraire.
L'utilisation de l'IA chez Meta est structurée autour de quatre piliers, détaille Jérôme Pesenti. Elle sert tout d'abord à sélectionner les contenus qui sont présentés à l'utilisateur, qu'il s'agisse de « recommandations organiques » ou de publicités. C'est sans doute l'aspect le plus essentiel pour Meta, qui cherche à attirer les utilisateurs sur sa plateforme et à monétiser le temps qu'ils y passent.
Meta utilise aussi l'IA pour modérer les contenus. Le groupe explore par ailleurs les usages qui peuvent être faits de l'intelligence artificielle dans le métavers, qu'il s'agisse de « créer de nouveaux mondes » ou « d'interagir avec des lunettes » de réalité virtuelle et augmentée, poursuit le dirigeant. Enfin, il opère PyTorch, un « système en open source que tout le monde utilise pour faire de la recherche en IA. » C'est le cas notamment de Microsoft lui-même et de Tesla, qui s'en sert pour bâtir son logiciel d'aide à la conduite Autopilot.
Dans la course à l'intelligence artificielle, Meta avance à pas de loup - Les Échos
Read More
No comments:
Post a Comment