Nvidia est fou ! Investissement consécutif dans trois licornes d'IA génératives, plus une seule ceinture pour piloter la capacité de production de 5 nm de TSMC
Nouvelles de Xinshi le 30 juin, que ce soit le premier semestre de cette année ou cette semaine, Nvidia est un grand gagnant.
Dans la nouvelle vague de boom de l'intelligence artificielle provoquée par l'IA générative, Nvidia est devenue l'une des actions les plus en vogue.** Le cours de l'action a grimpé de 185 % jusqu'à présent cette année, et la valeur marchande a dépassé 1 000 milliards de dollars américains. IA générative et grands modèles Leader dans la course au matériel pour la R&D**.
** Autour de l'investissement dans les start-ups d'IA générative, le sentiment de présence de Nvidia devient de plus en plus difficile à ignorer. ** Ce jeudi, Inflection AI, une startup américaine de chatbot d'IA, a annoncé avoir reçu 1,3 milliard de dollars de nouveau financement, avec une valorisation s'élevant à environ 4 milliards de dollars ; Runway, une startup américaine de vidéo basée sur l'IA, a annoncé la réalisation de 141 millions de dollars de nouveaux financements, dont la valorisation s'élève à 4 milliards de dollars Environ 1,5 milliard de dollars. ** Nvidia fait partie des investisseurs dans les deux financements. **
Selon le cabinet d'études de marché TrendForce, Nvidia devrait remplacer Qualcomm en tant que plus grande société de conception de puces au monde au deuxième trimestre 2023, car le déploiement de puces liées à l'IA stimule la croissance des revenus. **
D'une part, la réception de commandes sur le marché des puces IA est faible et, d'autre part, elle investit massivement dans la voie de l'IA générative.Le vœu pieux de Nvidia en matière d'IA devient de plus en plus fort.
01. Investissements consécutifs dans les licornes d'IA générative, l'expansion fulgurante de Nvidia du territoire d'investissement en IA
Les deux dernières licornes d'IA génératives de Nvidia - Inflection AI, une startup de modèle de langage à grande échelle qui crée des produits de type ChatGPT, et une startup de logiciel de montage vidéo AI qui permet aux utilisateurs de créer facilement de courtes vidéos en tapant du texte ** Runway **, les deux de ces deux ont rassemblé une très solide gamme d'investissements vedettes.
En plus de Nvidia, le nouveau cycle de financement d'Inflection AI a également reçu le co-fondateur de LinkedIn Reid Hoffman, le co-fondateur de Microsoft Bill Gates, l'ancien PDG de Google Eric Schmidt et d'autres géants de la technologie Et l'injection de capital du grand patron. Les derniers investisseurs financiers de Runway incluent Google, Salesforce et d'autres géants de la technologie, avec un financement cumulé d'environ 237 millions de dollars américains.
Plus tôt, le 9 juin de cette année, Cohere, une start-up canadienne d'IA qui travaille également sur des chatbots de type ChatGPT, a annoncé la finalisation d'un financement de série C de 270 millions de dollars américains, avec une valorisation d'environ 2,2 dollars américains. Nvidia,* Oracle*, Salesforce, etc. ont tous participé à ce tour de financement.
Il convient particulièrement de mentionner qu'Inflection AI, co-fondée par le co-fondateur de DeepMind Mustafa Suleyman et a occupé le poste de PDG en 2022, a reçu un grand nombre d'offres après le lancement du chatbot Pi, puis a reçu ce financement élevé, et ** Nvidia est le seul nouvel investisseur de ce tour**. Jusqu'à présent, cette société licorne a dépassé Cohere, devenant la troisième plus grande licorne d'IA générative au monde après OpenAI et Anthropic en valorisation.
Inflection AI a récemment lancé son premier modèle de langage propriétaire, Inflection-1, qui, selon elle, a été formé à l'aide de ** milliers de Nvidia H100 ** sur de très grands ensembles de données, avec des performances comparables à GPT-3.5, Chinchilla et PaLM -540B est équivalent.
02. 11 minutes pour former GPT-3, le GPU Nvidia domine le test de référence des grands modèles
Inflection AI travaille avec NVIDIA pour construire l'un des plus grands clusters GPU au monde pour la formation de grands modèles d'IA. Grâce à un partenariat avec Nvidia et le fournisseur de services cloud CoreWeave, son supercalculateur sera étendu pour inclure 22 000 H100, ce qui dépasse de loin les 16 000 A100 du cluster de supercalcul Meta RSC.
Fondé en 2017, CoreWeave prétend offrir une puissance de calcul "jusqu'à 80% moins chère que les fournisseurs de cloud traditionnels". Nvidia a précédemment investi 100 millions de dollars dans CoreWeave. Selon des médias étrangers en juin de cette année, Microsoft a accepté d'investir des milliards de dollars dans CoreWeave au cours des prochaines années pour la construction d'infrastructures de cloud computing.
Dans le dernier test d'évaluation des performances de l'IA faisant autorité, MLPerf, NVIDIA et CoreWeave ont conjointement construit un cluster avec 3584 H100, Il a fallu moins de 11 minutes pour former le modèle de langage à grande échelle GPT-3.
▲ Les performances de Nvidia H100 dans le dernier test de référence de formation GPT-3
Sans surprise, Nvidia continue de dominer les benchmarks avec sa puce informatique phare, le GPU H100.
▲Les performances de Nvidia H100 dans 8 tests de référence MLPerf
La dernière formation MLPerf 3.0 a ajouté le test de référence des grands modèles GPT-3, et NVIDIA et Intel sont devenus les deux seuls participants. Nvidia a établi le record de formation GPT-3 le plus rapide avec 3584 GPU, et la puce Intel AI Habana Gaudi2 a démontré sa compétitivité en termes de facilité d'utilisation et de performances de coût en exécutant GPT-3 sur un système plus petit, y compris 384 Gaudi2 Le temps total de formation sur le puce est supérieure à 5 heures et le temps total de formation sur 256 puces Gaudi2 est supérieur à 7 heures.
▲ Comparaison des résultats des tests de référence de formation GPT-3, la légende rouge foncé est Nvidia H100 et la légende rouge clair est Intel Gaudi2 (Source : IEEE Spectrum)
Dans certains tests, les performances d'entraînement de Gaudi2 dépassent celles du GPU Nvidia A100. Intel prévoit également de réduire davantage l'écart entre Gaudi2 et H100 grâce à l'optimisation logicielle. Il publiera un support logiciel et de nouvelles fonctionnalités pour FP8 en septembre, et prévoit que Gaudi2 dépassera H100 en termes de performances et de coûts. Un autre AMD, considéré comme un concurrent sérieux de Nvidia, n'a pas soumis les résultats des tests.
▲ Gaudi2 exécute 4 modèles avec des performances supérieures à A100 (Source : Intel)
Les résultats du benchmark MLPerf sont publiés par MLCommons. Selon David Kanter, directeur exécutif de MLCommons, GPT-3 est le plus exigeant en calcul des benchmarks MLPerf, et la plupart des réseaux de référence dans MLPerf peuvent fonctionner sur un seul processeur, mais GPT-3 nécessite au moins 64 processeurs.
**03.La course aux armements des modèles à grande échelle d'IA s'intensifie et la demande de puces d'IA à grande puissance de calcul monte en flèche
Les entreprises technologiques intègrent activement l'IA dans leurs produits et services, et les investisseurs sont enthousiastes à l'idée d'investir dans des startups d'IA générative. De toute évidence, personne ne veut manquer cette vague d'opportunités de croissance historique potentielles en raison de la vitesse de calcul rétrograde.
Cette semaine encore, la plus grande acquisition d'IA générative à ce jour est née au pays et à l'étranger : la super licorne américaine du big data Databricks a accepté d'acquérir MosaicML, une grande startup américaine de modèles linguistiques, pour 1,3 milliard de dollars (environ 9,4 milliards de yuans), et l'américain Tuan a annoncé hier qu'elle allait acquérir Light Years Beyond, une startup de modèles à grande échelle fondée par le co-fondateur de Meituan, Wang Huiwen, pour 2,065 milliards de yuans.
**La formation de modèles d'IA génératifs est indissociable des puces informatiques coûteuses des centres de données. Dans le contexte de la course aux armements féroce des modèles à grande échelle, la demande du marché pour les puces IA à grande puissance de calcul ne cesse d'augmenter. À l'heure actuelle, il n'y a qu'un seul véritable gagnant de puces pour la formation de grands modèles AI-Nvidia. **
En novembre de l'année dernière, Oracle a annoncé l'achat de dizaines de milliers d'A100 et de H100 pour construire un nouveau centre de calcul. Google a annoncé l'A3, un supercalculateur IA avec 26 000 H100, lors de sa conférence des développeurs d'E/S en mai de cette année. Cette semaine, Oracle a été rapporté par des médias étrangers qu'il dépensait des milliards de dollars pour acheter des puces Nvidia afin d'étendre les services de cloud computing pour la nouvelle vague d'IA.
** La capacité de Nvidia à continuer à gagner à l'avenir est étroitement liée au marché chinois **. Selon le rapport financier, les revenus de la Chine continentale et de Hong Kong ont représenté 22% des revenus de Nvidia l'année dernière. Selon les rapports "LatePost", après la Fête du Printemps de cette année, les principales sociétés Internet en Chine ayant des activités de cloud computing ont passé d'importantes commandes auprès de Nvidia. Une commande de niveau Wanka a été passée pour Nvidia, et la valeur est estimée à plus d'un milliard. yuans sur la base du prix catalogue. Byte à lui seul a peut-être passé des commandes cette année proches du nombre total de GPU commerciaux Nvidia vendus en Chine l'année dernière. En excluant les nouvelles commandes de cette année, le nombre total de Byte A100 et de son prédécesseur V100 est proche de 100 000 yuans ; le nombre total de A100 et H800 que Byte est arrivé et n'est pas arrivé est de 100 000 yuans.
Après que des rumeurs ont émergé cette semaine selon lesquelles le département américain du Commerce envisageait de nouvelles restrictions sur les exportations A800 et H800 de Nvidia vers la Chine, la directrice financière de Nvidia, Colette Kress, a averti : , fera perdre définitivement à l'industrie américaine l'opportunité de rivaliser et de diriger dans l'un des plus grands marchés du monde et affectera nos futures performances commerciales et financières. »
**04.Conclusion : Il n'y a qu'un pas à franchir pour atteindre le sommet de la plus grande société de conception de puces au monde
Indépendamment des performances des produits, des nouvelles commandes, des progrès des performances, des performances boursières, de l'expansion écologique ou de la disposition des investissements, Nvidia a déjà gagné visiblement à l'œil nu.
Le 25 mai, Nvidia a publié son rapport financier pour le premier trimestre de l'exercice 2024, dans lequel il a réalisé un chiffre d'affaires de 7,19 milliards de dollars en un seul trimestre, et prédit que son chiffre d'affaires au deuxième trimestre atteindrait 11,00 milliards de dollars. Le 12 juin, selon les médias taïwanais, entraînés par l'augmentation des commandes de puces Nvidia AI, le taux d'utilisation du processus avancé de TSMC a considérablement augmenté et le taux d'utilisation de la capacité de production de 5 nm est passé de plus de 50% à 70% à 80 %.
Selon des données récemment publiées par l'organisme d'études de marché TrendForce, bénéficiant de la demande explosive d'IA générative et de puissance de cloud computing et du lancement de nouveaux produits de la série GeForce RTX 40, les revenus de Nvidia au premier trimestre 2023 augmenteront de 13,5 % aux États-Unis. 6,73 milliards de dollars La part de marché de la conception de puces est passée à 19,9 %.
▲ Classement des dix premières entreprises mondiales de conception de puces au premier trimestre 2023, unité : millions de dollars US (Source : TrendForce)
TrendForce prédit qu'en raison du déploiement de puces liées à l'IA stimulant la croissance des revenus, le taux de croissance est évident.Au deuxième trimestre de 2023, Nvidia devrait remplacer Qualcomm pour devenir la plus grande société de conception de puces sans usine au monde.
Dans le contexte où Nvidia est devenu le plus grand bénéficiaire de l'ère de l'IA générative, les géants des puces tels qu'Intel et AMD lorgnent, essayant de partager le marché de l'informatique IA grâce à l'optimisation collaborative des logiciels et du matériel. Dans le même temps, la question de savoir si les entreprises nationales de puces IA peuvent attraper cette vague de dividendes de formation et de déploiement de grands modèles est également devenue la priorité de l'industrie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Nvidia est fou ! Investissement consécutif dans trois licornes d'IA génératives, plus une seule ceinture pour piloter la capacité de production de 5 nm de TSMC
Source originale : Choses de base
Nouvelles de Xinshi le 30 juin, que ce soit le premier semestre de cette année ou cette semaine, Nvidia est un grand gagnant.
Dans la nouvelle vague de boom de l'intelligence artificielle provoquée par l'IA générative, Nvidia est devenue l'une des actions les plus en vogue.** Le cours de l'action a grimpé de 185 % jusqu'à présent cette année, et la valeur marchande a dépassé 1 000 milliards de dollars américains. IA générative et grands modèles Leader dans la course au matériel pour la R&D**.
** Autour de l'investissement dans les start-ups d'IA générative, le sentiment de présence de Nvidia devient de plus en plus difficile à ignorer. ** Ce jeudi, Inflection AI, une startup américaine de chatbot d'IA, a annoncé avoir reçu 1,3 milliard de dollars de nouveau financement, avec une valorisation s'élevant à environ 4 milliards de dollars ; Runway, une startup américaine de vidéo basée sur l'IA, a annoncé la réalisation de 141 millions de dollars de nouveaux financements, dont la valorisation s'élève à 4 milliards de dollars Environ 1,5 milliard de dollars. ** Nvidia fait partie des investisseurs dans les deux financements. **
Selon le cabinet d'études de marché TrendForce, Nvidia devrait remplacer Qualcomm en tant que plus grande société de conception de puces au monde au deuxième trimestre 2023, car le déploiement de puces liées à l'IA stimule la croissance des revenus. **
D'une part, la réception de commandes sur le marché des puces IA est faible et, d'autre part, elle investit massivement dans la voie de l'IA générative.Le vœu pieux de Nvidia en matière d'IA devient de plus en plus fort.
01. Investissements consécutifs dans les licornes d'IA générative, l'expansion fulgurante de Nvidia du territoire d'investissement en IA
Les deux dernières licornes d'IA génératives de Nvidia - Inflection AI, une startup de modèle de langage à grande échelle qui crée des produits de type ChatGPT, et une startup de logiciel de montage vidéo AI qui permet aux utilisateurs de créer facilement de courtes vidéos en tapant du texte ** Runway **, les deux de ces deux ont rassemblé une très solide gamme d'investissements vedettes.
En plus de Nvidia, le nouveau cycle de financement d'Inflection AI a également reçu le co-fondateur de LinkedIn Reid Hoffman, le co-fondateur de Microsoft Bill Gates, l'ancien PDG de Google Eric Schmidt et d'autres géants de la technologie Et l'injection de capital du grand patron. Les derniers investisseurs financiers de Runway incluent Google, Salesforce et d'autres géants de la technologie, avec un financement cumulé d'environ 237 millions de dollars américains.
Plus tôt, le 9 juin de cette année, Cohere, une start-up canadienne d'IA qui travaille également sur des chatbots de type ChatGPT, a annoncé la finalisation d'un financement de série C de 270 millions de dollars américains, avec une valorisation d'environ 2,2 dollars américains. Nvidia,* Oracle*, Salesforce, etc. ont tous participé à ce tour de financement.
Il convient particulièrement de mentionner qu'Inflection AI, co-fondée par le co-fondateur de DeepMind Mustafa Suleyman et a occupé le poste de PDG en 2022, a reçu un grand nombre d'offres après le lancement du chatbot Pi, puis a reçu ce financement élevé, et ** Nvidia est le seul nouvel investisseur de ce tour**. Jusqu'à présent, cette société licorne a dépassé Cohere, devenant la troisième plus grande licorne d'IA générative au monde après OpenAI et Anthropic en valorisation.
Inflection AI a récemment lancé son premier modèle de langage propriétaire, Inflection-1, qui, selon elle, a été formé à l'aide de ** milliers de Nvidia H100 ** sur de très grands ensembles de données, avec des performances comparables à GPT-3.5, Chinchilla et PaLM -540B est équivalent.
02. 11 minutes pour former GPT-3, le GPU Nvidia domine le test de référence des grands modèles
Inflection AI travaille avec NVIDIA pour construire l'un des plus grands clusters GPU au monde pour la formation de grands modèles d'IA. Grâce à un partenariat avec Nvidia et le fournisseur de services cloud CoreWeave, son supercalculateur sera étendu pour inclure 22 000 H100, ce qui dépasse de loin les 16 000 A100 du cluster de supercalcul Meta RSC.
Fondé en 2017, CoreWeave prétend offrir une puissance de calcul "jusqu'à 80% moins chère que les fournisseurs de cloud traditionnels". Nvidia a précédemment investi 100 millions de dollars dans CoreWeave. Selon des médias étrangers en juin de cette année, Microsoft a accepté d'investir des milliards de dollars dans CoreWeave au cours des prochaines années pour la construction d'infrastructures de cloud computing.
Dans le dernier test d'évaluation des performances de l'IA faisant autorité, MLPerf, NVIDIA et CoreWeave ont conjointement construit un cluster avec 3584 H100, Il a fallu moins de 11 minutes pour former le modèle de langage à grande échelle GPT-3.
Sans surprise, Nvidia continue de dominer les benchmarks avec sa puce informatique phare, le GPU H100.
La dernière formation MLPerf 3.0 a ajouté le test de référence des grands modèles GPT-3, et NVIDIA et Intel sont devenus les deux seuls participants. Nvidia a établi le record de formation GPT-3 le plus rapide avec 3584 GPU, et la puce Intel AI Habana Gaudi2 a démontré sa compétitivité en termes de facilité d'utilisation et de performances de coût en exécutant GPT-3 sur un système plus petit, y compris 384 Gaudi2 Le temps total de formation sur le puce est supérieure à 5 heures et le temps total de formation sur 256 puces Gaudi2 est supérieur à 7 heures.
Dans certains tests, les performances d'entraînement de Gaudi2 dépassent celles du GPU Nvidia A100. Intel prévoit également de réduire davantage l'écart entre Gaudi2 et H100 grâce à l'optimisation logicielle. Il publiera un support logiciel et de nouvelles fonctionnalités pour FP8 en septembre, et prévoit que Gaudi2 dépassera H100 en termes de performances et de coûts. Un autre AMD, considéré comme un concurrent sérieux de Nvidia, n'a pas soumis les résultats des tests.
Les résultats du benchmark MLPerf sont publiés par MLCommons. Selon David Kanter, directeur exécutif de MLCommons, GPT-3 est le plus exigeant en calcul des benchmarks MLPerf, et la plupart des réseaux de référence dans MLPerf peuvent fonctionner sur un seul processeur, mais GPT-3 nécessite au moins 64 processeurs.
**03.La course aux armements des modèles à grande échelle d'IA s'intensifie et la demande de puces d'IA à grande puissance de calcul monte en flèche
Les entreprises technologiques intègrent activement l'IA dans leurs produits et services, et les investisseurs sont enthousiastes à l'idée d'investir dans des startups d'IA générative. De toute évidence, personne ne veut manquer cette vague d'opportunités de croissance historique potentielles en raison de la vitesse de calcul rétrograde.
Cette semaine encore, la plus grande acquisition d'IA générative à ce jour est née au pays et à l'étranger : la super licorne américaine du big data Databricks a accepté d'acquérir MosaicML, une grande startup américaine de modèles linguistiques, pour 1,3 milliard de dollars (environ 9,4 milliards de yuans), et l'américain Tuan a annoncé hier qu'elle allait acquérir Light Years Beyond, une startup de modèles à grande échelle fondée par le co-fondateur de Meituan, Wang Huiwen, pour 2,065 milliards de yuans.
**La formation de modèles d'IA génératifs est indissociable des puces informatiques coûteuses des centres de données. Dans le contexte de la course aux armements féroce des modèles à grande échelle, la demande du marché pour les puces IA à grande puissance de calcul ne cesse d'augmenter. À l'heure actuelle, il n'y a qu'un seul véritable gagnant de puces pour la formation de grands modèles AI-Nvidia. **
En novembre de l'année dernière, Oracle a annoncé l'achat de dizaines de milliers d'A100 et de H100 pour construire un nouveau centre de calcul. Google a annoncé l'A3, un supercalculateur IA avec 26 000 H100, lors de sa conférence des développeurs d'E/S en mai de cette année. Cette semaine, Oracle a été rapporté par des médias étrangers qu'il dépensait des milliards de dollars pour acheter des puces Nvidia afin d'étendre les services de cloud computing pour la nouvelle vague d'IA.
** La capacité de Nvidia à continuer à gagner à l'avenir est étroitement liée au marché chinois **. Selon le rapport financier, les revenus de la Chine continentale et de Hong Kong ont représenté 22% des revenus de Nvidia l'année dernière. Selon les rapports "LatePost", après la Fête du Printemps de cette année, les principales sociétés Internet en Chine ayant des activités de cloud computing ont passé d'importantes commandes auprès de Nvidia. Une commande de niveau Wanka a été passée pour Nvidia, et la valeur est estimée à plus d'un milliard. yuans sur la base du prix catalogue. Byte à lui seul a peut-être passé des commandes cette année proches du nombre total de GPU commerciaux Nvidia vendus en Chine l'année dernière. En excluant les nouvelles commandes de cette année, le nombre total de Byte A100 et de son prédécesseur V100 est proche de 100 000 yuans ; le nombre total de A100 et H800 que Byte est arrivé et n'est pas arrivé est de 100 000 yuans.
Après que des rumeurs ont émergé cette semaine selon lesquelles le département américain du Commerce envisageait de nouvelles restrictions sur les exportations A800 et H800 de Nvidia vers la Chine, la directrice financière de Nvidia, Colette Kress, a averti : , fera perdre définitivement à l'industrie américaine l'opportunité de rivaliser et de diriger dans l'un des plus grands marchés du monde et affectera nos futures performances commerciales et financières. »
**04.Conclusion : Il n'y a qu'un pas à franchir pour atteindre le sommet de la plus grande société de conception de puces au monde
Indépendamment des performances des produits, des nouvelles commandes, des progrès des performances, des performances boursières, de l'expansion écologique ou de la disposition des investissements, Nvidia a déjà gagné visiblement à l'œil nu.
Le 25 mai, Nvidia a publié son rapport financier pour le premier trimestre de l'exercice 2024, dans lequel il a réalisé un chiffre d'affaires de 7,19 milliards de dollars en un seul trimestre, et prédit que son chiffre d'affaires au deuxième trimestre atteindrait 11,00 milliards de dollars. Le 12 juin, selon les médias taïwanais, entraînés par l'augmentation des commandes de puces Nvidia AI, le taux d'utilisation du processus avancé de TSMC a considérablement augmenté et le taux d'utilisation de la capacité de production de 5 nm est passé de plus de 50% à 70% à 80 %.
Selon des données récemment publiées par l'organisme d'études de marché TrendForce, bénéficiant de la demande explosive d'IA générative et de puissance de cloud computing et du lancement de nouveaux produits de la série GeForce RTX 40, les revenus de Nvidia au premier trimestre 2023 augmenteront de 13,5 % aux États-Unis. 6,73 milliards de dollars La part de marché de la conception de puces est passée à 19,9 %.
TrendForce prédit qu'en raison du déploiement de puces liées à l'IA stimulant la croissance des revenus, le taux de croissance est évident.Au deuxième trimestre de 2023, Nvidia devrait remplacer Qualcomm pour devenir la plus grande société de conception de puces sans usine au monde.
Dans le contexte où Nvidia est devenu le plus grand bénéficiaire de l'ère de l'IA générative, les géants des puces tels qu'Intel et AMD lorgnent, essayant de partager le marché de l'informatique IA grâce à l'optimisation collaborative des logiciels et du matériel. Dans le même temps, la question de savoir si les entreprises nationales de puces IA peuvent attraper cette vague de dividendes de formation et de déploiement de grands modèles est également devenue la priorité de l'industrie.