La conférence annuelle de Nvidia ne convainc pas les investisseurs

Le dirigeant du géant des puces informatiques a estimé que les besoins en matière de capacités de calculs dus à l’utilisation de l’intelligence artificielle étaient cent fois plus grand qu’il ne le pensait il y a un an.
Jensen Huang co-founder and CEO of Nvidia 13-11-2024  during the Nvidia AI Summit Japan in Tokyo, Japan
Jensen Huang, cofondateur et directeur général de Nvidia  -  photo Bloomberg

Le directeur général de Nvidia, Jensen Huang, a indiqué mardi soir que son groupe était bien placé pour naviguer dans un changement de l’industrie de l’intelligence artificielle (IA) qui voit les entreprises passer de l’entraînement de modèles d’IA à l’obtention de réponses détaillées de leur part.

Lors de la conférence annuelle des développeurs de logiciels de Nvidia en Californie, Jensen Huang a défendu l’avance de l’entreprise dans la vente de puces d’IA coûteuses à ses clients, sans toutefois réussir à convaincre alors que les investisseurs s’inquiètent toujours d’une moindre utilisation de puces avancées par les spécialistes de l’intelligence artificielle dans la foulée des performances de la start-up DeepSeek.

Mardi, l’action Nvidia a clôturé en repli de 3,4%. Elle abandonne désormais 25% sur son record établi le 7 janvier dernier à 153 dollars.

«Presque tout le monde s’est trompé», a pourtant estimé Jensen Huang, vêtu de sa veste en cuir noir et de son jean habituels, sur la scène d’une conférence qu’il a qualifiée de «Super Bowl de l’IA». «La quantité de calcul dont nous avons besoin en raison de l’IA agentique, en raison du raisonnement, est facilement 100 fois supérieure à ce que nous pensions nécessaire à la même époque l’année dernière», a-t-il déclaré, faisant référence aux agents d’IA autonomes qui nécessitent peu d’intervention humaine pour les tâches routinières.

Nouvelles puces

Les puces très rentables de Nvidia subissent des pressions en raison des changements technologiques, car les marchés de l’IA passent de «l’entraînement» de modèles d’IA tels que les chatbots sur d'énormes quantités de données pour les rendre intelligents, à «l’inférence», c’est-à-dire lorsque le modèle utilise son intelligence pour produire des réponses pour les utilisateurs.

Dans ce contexte, Jensen Huang a annoncé de nouvelles puces, dont la prochaine GPU Blackwell Ultra, qui sera disponible au second semestre de cette année, et qui disposera de plus de mémoire que sa puce phare Blackwell, ce qui signifie qu’elle pourra supporter des modèles d’IA plus grands.

Le dirigeant a indiqué que les puces de Nvidia ont deux principaux objectifs : aider les systèmes d’IA à répondre intelligemment à un grand nombre d’utilisateurs, et fournir ces réponses le plus rapidement possible. Avant de soutenir que les puces de son groupe sont les seules à pouvoir faire les deux. «Si vous mettez trop de temps à répondre à une question, le client ne reviendra pas. C’est comme la recherche sur le web», a-t-il estimé.

Il a également révélé des détails sur un système de puces appelé Vera Rubin, qui succédera à Blackwell et offrira des vitesses plus rapides. Le lancement est prévu au second semestre 2026. Ces puces Rubin seront suivies par les puces Feynman, qui arriveront en 2028.

«Je pense que le constat du côté des investisseurs est que beaucoup de ces nouvelles étaient déjà intégrées dans le cours de l’action», a déclaré Ben Bajarin, PDG du cabinet de conseil en technologie Creative Strategies. Il a ajouté que le discours de Nvidia selon lequel l’industrie de l’IA serait construite sur ses puces à long terme ne changerait pas les attentes des investisseurs à court terme. «Leur discours reste vraiment inchangé», a-t-il estimé.

(Avec Reuters)

A lire aussi: Le désamour de Wall Street pour les champions de l'IA risque peu de durer

Un évènement L’AGEFI

Plus d'articles du même thème

ETF à la Une

Contenu de nos partenaires

A lire sur ...