¡Nvidia está loca! Inversión consecutiva en tres unicornios de IA generativa, más un solo cinturón para hacer volar la capacidad de producción de 5nm de TSMC
Xinshi noticias el 30 de junio, ya sea la primera mitad de este año o esta semana, Nvidia es un gran ganador.
En la nueva ola de auge de la inteligencia artificial causada por la IA generativa, Nvidia se ha convertido en una de las acciones más cotizadas.** El precio de las acciones se ha disparado un 185 % en lo que va del año y el valor de mercado ha superado el billón de dólares estadounidenses. IA generativa y modelos grandes Liderando el camino en la carrera de hardware para I+D**.
** En torno a la inversión en nuevas empresas de IA generativa, el sentido de presencia de Nvidia se está volviendo cada vez más difícil de ignorar. ** Este jueves, Inflection AI, una startup estadounidense de bots conversacionales de IA, anunció que recibió $1,300 millones en nueva financiación, con una valoración que aumenta a alrededor de $4,000 millones; Runway, una startup estadounidense de video basada en IA, anunció la finalización de $141 millones en nueva financiación, con una valoración que asciende a 4.000 millones de dólares Alrededor de 1.500 millones de dólares. ** Nvidia se encuentra entre los inversores en ambas financiaciones. **
Según la firma de investigación de mercado TrendForce, se espera que Nvidia reemplace a Qualcomm como la empresa de diseño de chips más grande del mundo en el segundo trimestre de 2023, ya que la implementación de chips relacionados con la IA estimula el crecimiento de los ingresos. **
Por un lado, recibir pedidos en el mercado de chips de IA es suave y, por otro lado, está invirtiendo fuertemente en la pista generativa de IA. Las ilusiones de IA de Nvidia son cada vez más fuertes.
01. Inversión consecutiva en unicornios de IA generativa, la expansión relámpago de Nvidia del territorio de inversión en IA
Los dos últimos unicornios generativos de IA de Nvidia: Inflection AI, una puesta en marcha de modelo de lenguaje a gran escala que crea productos similares a ChatGPT, y una puesta en marcha de software de edición de video de IA que permite a los usuarios crear fácilmente videos cortos escribiendo texto Runway, ambos de estos dos han reunido una alineación de inversión estrella muy fuerte.
Además de Nvidia, la nueva ronda de financiación de Inflection AI también ha recibido al cofundador de LinkedIn, Reid Hoffman, al cofundador de Microsoft, Bill Gates, al exdirector ejecutivo de Google, Eric Schmidt, y a otros gigantes tecnológicos. la inyección de capital del gran jefe. Los inversores financieros más recientes de Runway incluyen a Google, Salesforce y otros gigantes tecnológicos, con una financiación acumulada de alrededor de 237 millones de dólares estadounidenses.
Anteriormente, el 9 de junio de este año, Cohere, una nueva empresa canadiense de inteligencia artificial que también está trabajando en chatbots similares a ChatGPT, anunció la finalización de la financiación de la Serie C de US $ 270 millones, con una valoración de aproximadamente US $ 2.2 mil millones Nvidia,* Oracle*, Salesforce, etc., todos participaron en esta ronda de financiación.
Vale la pena mencionar especialmente que Inflection AI, cofundada por el cofundador de DeepMind Mustafa Suleyman y que se desempeñó como CEO en 2022, recibió una gran cantidad de ofertas después de lanzar el chatbot Pi, y luego recibió esta alta financiación, y Nvidia es el único inversor nuevo en esta ronda. Hasta ahora, esta empresa unicornio ha superado a Cohere, convirtiéndose en el tercer unicornio generativo de IA más grande del mundo después de OpenAI y Anthropic en valoración.
Inflection AI lanzó recientemente su primer modelo de lenguaje patentado, Inflection-1, que dice que fue entrenado usando miles de Nvidia H100 en conjuntos de datos muy grandes, con un rendimiento comparable a GPT-3.5, Chinchilla y PaLM -540B es equivalente.
▲ Comparación de precisión multitarea de Inflection-1, GPT-3.5, LLaMA-65B (Fuente: Inflection AI)
02. 11 minutos para entrenar GPT-3, la GPU Nvidia domina la prueba de referencia del modelo grande
Inflection AI está trabajando con NVIDIA para construir uno de los clústeres de GPU más grandes del mundo para entrenar grandes modelos de IA. A través de una asociación con Nvidia y el proveedor de servicios en la nube CoreWeave, su supercomputadora se ampliará para incluir 22 000 H100, lo que supera con creces los 16 000 A100 del clúster de supercomputación Meta RSC.
Fundada en 2017, CoreWeave afirma ofrecer potencia informática "hasta un 80 % más barata que los proveedores de nube tradicionales". Nvidia invirtió previamente $100 millones en CoreWeave. Según informes de medios extranjeros en junio de este año, Microsoft acordó invertir miles de millones de dólares en CoreWeave en los próximos años para la construcción de infraestructura de computación en la nube.
En la última prueba autorizada de referencia de rendimiento de IA, MLPerf, NVIDIA y CoreWeave crearon conjuntamente un clúster con 3584 H100, Tomó menos de 11 minutos entrenar el modelo de lenguaje a gran escala GPT-3.
▲El rendimiento de Nvidia H100 en la última prueba comparativa de entrenamiento GPT-3
No es sorprendente que Nvidia continúe dominando los puntos de referencia con su chip informático insignia, la GPU H100.
▲El rendimiento de Nvidia H100 en 8 pruebas comparativas de MLPerf
El último entrenamiento de MLPerf 3.0 ha agregado la prueba comparativa de modelo grande GPT-3, y NVIDIA e Intel se han convertido en los dos únicos participantes. Nvidia estableció el récord de entrenamiento de GPT-3 más rápido con 3584 GPU, y el chip Intel AI Habana Gaudi2 demostró su competitividad en términos de facilidad de uso y rentabilidad al ejecutar GPT-3 en un sistema más pequeño, que incluye 384 Gaudi2 El tiempo total de entrenamiento en el El chip es de más de 5 horas, y el tiempo total de entrenamiento en 256 chips Gaudi2 es de más de 7 horas.
▲ Comparación de los resultados de las pruebas comparativas de entrenamiento de GPT-3, la leyenda en rojo oscuro es Nvidia H100 y la leyenda en rojo claro es Intel Gaudi2 (Fuente: IEEE Spectrum)
En algunas pruebas, el rendimiento de entrenamiento de Gaudi2 supera al de la GPU Nvidia A100. Intel también planea reducir aún más la brecha entre Gaudi2 y H100 a través de la optimización de software.Lanzará soporte de software y nuevas funciones para FP8 en septiembre, y predice que Gaudi2 superará a H100 en términos de rendimiento y rentabilidad. Otro AMD, considerado un fuerte competidor de Nvidia, no presentó los resultados de las pruebas.
▲ Gaudi2 ejecuta 4 modelos con un rendimiento superior a A100 (Fuente: Intel)
Los resultados del benchmark MLPerf son publicados por MLCommons. Según David Kanter, director ejecutivo de MLCommons, GPT-3 es el punto de referencia de MLPerf más exigente desde el punto de vista computacional, y la mayoría de las redes de referencia en MLPerf pueden ejecutarse en un solo procesador, pero GPT-3 requiere al menos 64 procesadores.
**03.La carrera armamentista de modelos a gran escala de IA se está calentando, y la demanda de chips de IA con gran poder de cómputo se está disparando
Las empresas de tecnología están integrando activamente la IA en sus productos y servicios, y los inversionistas están entusiasmados con la inversión en nuevas empresas de IA generativa.Obviamente, nadie quiere perderse esta ola de posibles oportunidades de crecimiento histórico debido a la velocidad informática atrasada.
Apenas esta semana, nació la adquisición de IA generativa más grande hasta el momento en el país y en el extranjero: el superunicornio estadounidense de big data Databricks acordó adquirir MosaicML, una gran startup de modelo de lenguaje estadounidense, por US $ 1.3 mil millones (aproximadamente RMB 9.4 mil millones). Tuan anunció ayer que adquirirá Light Years Beyond, una startup modelo a gran escala fundada por el cofundador de Meituan, Wang Huiwen, por 2.065 millones de yuanes.
**El entrenamiento de modelos generativos de IA es inseparable de los costosos chips informáticos del centro de datos. En el contexto de la feroz carrera armamentista de los modelos a gran escala, la demanda del mercado de chips de IA con gran potencia informática sigue aumentando. En la actualidad, solo hay un verdadero ganador de chips para entrenar modelos grandes de IA: Nvidia. **
En noviembre del año pasado, Oracle anunció la compra de decenas de miles de A100 y H100 para construir un nuevo centro de cómputo. Google anunció el A3, una supercomputadora de inteligencia artificial con 26 000 H100, en su conferencia de desarrolladores de E/S en mayo de este año. Esta semana, los medios extranjeros informaron que Oracle está gastando miles de millones de dólares para comprar chips Nvidia para expandir los servicios de computación en la nube para la nueva ola de IA.
El hecho de que Nvidia pueda continuar ganando en el futuro está estrechamente relacionado con el mercado chino. Según el informe financiero, los ingresos de China continental y Hong Kong representaron el 22 % de los ingresos de Nvidia el año pasado. Según los informes de "LatePost", después del Festival de Primavera de este año, las principales empresas de Internet en China con negocios de computación en la nube han realizado grandes pedidos con Nvidia. Se ha realizado un pedido de nivel Wanka para Nvidia, y se estima que el valor supera los mil millones. yuan basado en el precio de lista. Byte solo puede haber realizado pedidos este año cerca del número total de GPU comerciales que Nvidia vendió en China el año pasado. Excluyendo los nuevos pedidos de este año, el número total de Byte A100 y su predecesor V100 se acerca a los 100 000 yuanes; el número total de A100 y H800 que Byte ha llegado y no ha llegado es de 100 000 yuanes.
Después de que surgieran rumores esta semana de que el Departamento de Comercio de EE. UU. estaba considerando más restricciones a las exportaciones de A800 y H800 de Nvidia a China, la directora financiera de Nvidia, Colette Kress, advirtió: hará que la industria de EE. UU. pierda permanentemente la oportunidad de competir y liderar en uno de los los mercados más grandes del mundo, y afectará nuestro futuro negocio y rendimiento financiero".
**04.Conclusión: Está a solo un paso de llegar a la cima de la empresa de diseño de chips más grande del mundo
Independientemente del rendimiento del producto, los nuevos pedidos, el progreso del rendimiento, el rendimiento del mercado de valores, la expansión ecológica o el diseño de la inversión, Nvidia ya ha ganado visiblemente a simple vista.
El 25 de mayo, Nvidia publicó su informe financiero para el primer trimestre del año fiscal 2024, en el que logró ingresos de 7190 millones de dólares estadounidenses en un solo trimestre y pronosticó que sus ingresos en el segundo trimestre alcanzarían los 11 000 millones de dólares estadounidenses. El 12 de junio, según los informes de los medios de Taiwán, impulsado por el aumento de los pedidos de chips Nvidia AI, la tasa de utilización del proceso avanzado de TSMC aumentó significativamente y la tasa de utilización de la capacidad de producción de 5 nm aumentó de más del 50 % al 70 % a 80%.
Según los datos publicados recientemente por la organización de investigación de mercado TrendForce, los ingresos de Nvidia en el primer trimestre de 2023 aumentarán un 13,5 % en EE. 6730 millones de dólares La cuota de mercado del diseño de chips aumentó al 19,9 %.
▲ Clasificación de las diez principales empresas de diseño de chips del mundo en el primer trimestre de 2023, unidad: millones de dólares estadounidenses (Fuente: TrendForce)
TrendForce predice que debido a la implementación de chips relacionados con la IA que estimulan el crecimiento de los ingresos, la tasa de crecimiento es obvia. En el segundo trimestre de 2023, se espera que Nvidia reemplace a Qualcomm para convertirse en la compañía de diseño de chips sin fábrica más grande del mundo.
Bajo el trasfondo de que Nvidia se ha convertido en el mayor beneficiario de la era de la IA generativa, los gigantes de chips como Intel y AMD están mirando hacia arriba, tratando de compartir el mercado de la computación con IA a través de la optimización colaborativa de software y hardware. Al mismo tiempo, si las empresas nacionales de chips de IA pueden captar esta ola de grandes dividendos de capacitación e implementación de modelos también se ha convertido en el foco de atención de la industria.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Nvidia está loca! Inversión consecutiva en tres unicornios de IA generativa, más un solo cinturón para hacer volar la capacidad de producción de 5nm de TSMC
Fuente original: Core Things
Xinshi noticias el 30 de junio, ya sea la primera mitad de este año o esta semana, Nvidia es un gran ganador.
En la nueva ola de auge de la inteligencia artificial causada por la IA generativa, Nvidia se ha convertido en una de las acciones más cotizadas.** El precio de las acciones se ha disparado un 185 % en lo que va del año y el valor de mercado ha superado el billón de dólares estadounidenses. IA generativa y modelos grandes Liderando el camino en la carrera de hardware para I+D**.
** En torno a la inversión en nuevas empresas de IA generativa, el sentido de presencia de Nvidia se está volviendo cada vez más difícil de ignorar. ** Este jueves, Inflection AI, una startup estadounidense de bots conversacionales de IA, anunció que recibió $1,300 millones en nueva financiación, con una valoración que aumenta a alrededor de $4,000 millones; Runway, una startup estadounidense de video basada en IA, anunció la finalización de $141 millones en nueva financiación, con una valoración que asciende a 4.000 millones de dólares Alrededor de 1.500 millones de dólares. ** Nvidia se encuentra entre los inversores en ambas financiaciones. **
Según la firma de investigación de mercado TrendForce, se espera que Nvidia reemplace a Qualcomm como la empresa de diseño de chips más grande del mundo en el segundo trimestre de 2023, ya que la implementación de chips relacionados con la IA estimula el crecimiento de los ingresos. **
Por un lado, recibir pedidos en el mercado de chips de IA es suave y, por otro lado, está invirtiendo fuertemente en la pista generativa de IA. Las ilusiones de IA de Nvidia son cada vez más fuertes.
01. Inversión consecutiva en unicornios de IA generativa, la expansión relámpago de Nvidia del territorio de inversión en IA
Los dos últimos unicornios generativos de IA de Nvidia: Inflection AI, una puesta en marcha de modelo de lenguaje a gran escala que crea productos similares a ChatGPT, y una puesta en marcha de software de edición de video de IA que permite a los usuarios crear fácilmente videos cortos escribiendo texto Runway, ambos de estos dos han reunido una alineación de inversión estrella muy fuerte.
Además de Nvidia, la nueva ronda de financiación de Inflection AI también ha recibido al cofundador de LinkedIn, Reid Hoffman, al cofundador de Microsoft, Bill Gates, al exdirector ejecutivo de Google, Eric Schmidt, y a otros gigantes tecnológicos. la inyección de capital del gran jefe. Los inversores financieros más recientes de Runway incluyen a Google, Salesforce y otros gigantes tecnológicos, con una financiación acumulada de alrededor de 237 millones de dólares estadounidenses.
Anteriormente, el 9 de junio de este año, Cohere, una nueva empresa canadiense de inteligencia artificial que también está trabajando en chatbots similares a ChatGPT, anunció la finalización de la financiación de la Serie C de US $ 270 millones, con una valoración de aproximadamente US $ 2.2 mil millones Nvidia,* Oracle*, Salesforce, etc., todos participaron en esta ronda de financiación.
Vale la pena mencionar especialmente que Inflection AI, cofundada por el cofundador de DeepMind Mustafa Suleyman y que se desempeñó como CEO en 2022, recibió una gran cantidad de ofertas después de lanzar el chatbot Pi, y luego recibió esta alta financiación, y Nvidia es el único inversor nuevo en esta ronda. Hasta ahora, esta empresa unicornio ha superado a Cohere, convirtiéndose en el tercer unicornio generativo de IA más grande del mundo después de OpenAI y Anthropic en valoración.
Inflection AI lanzó recientemente su primer modelo de lenguaje patentado, Inflection-1, que dice que fue entrenado usando miles de Nvidia H100 en conjuntos de datos muy grandes, con un rendimiento comparable a GPT-3.5, Chinchilla y PaLM -540B es equivalente.
02. 11 minutos para entrenar GPT-3, la GPU Nvidia domina la prueba de referencia del modelo grande
Inflection AI está trabajando con NVIDIA para construir uno de los clústeres de GPU más grandes del mundo para entrenar grandes modelos de IA. A través de una asociación con Nvidia y el proveedor de servicios en la nube CoreWeave, su supercomputadora se ampliará para incluir 22 000 H100, lo que supera con creces los 16 000 A100 del clúster de supercomputación Meta RSC.
Fundada en 2017, CoreWeave afirma ofrecer potencia informática "hasta un 80 % más barata que los proveedores de nube tradicionales". Nvidia invirtió previamente $100 millones en CoreWeave. Según informes de medios extranjeros en junio de este año, Microsoft acordó invertir miles de millones de dólares en CoreWeave en los próximos años para la construcción de infraestructura de computación en la nube.
En la última prueba autorizada de referencia de rendimiento de IA, MLPerf, NVIDIA y CoreWeave crearon conjuntamente un clúster con 3584 H100, Tomó menos de 11 minutos entrenar el modelo de lenguaje a gran escala GPT-3.
No es sorprendente que Nvidia continúe dominando los puntos de referencia con su chip informático insignia, la GPU H100.
El último entrenamiento de MLPerf 3.0 ha agregado la prueba comparativa de modelo grande GPT-3, y NVIDIA e Intel se han convertido en los dos únicos participantes. Nvidia estableció el récord de entrenamiento de GPT-3 más rápido con 3584 GPU, y el chip Intel AI Habana Gaudi2 demostró su competitividad en términos de facilidad de uso y rentabilidad al ejecutar GPT-3 en un sistema más pequeño, que incluye 384 Gaudi2 El tiempo total de entrenamiento en el El chip es de más de 5 horas, y el tiempo total de entrenamiento en 256 chips Gaudi2 es de más de 7 horas.
En algunas pruebas, el rendimiento de entrenamiento de Gaudi2 supera al de la GPU Nvidia A100. Intel también planea reducir aún más la brecha entre Gaudi2 y H100 a través de la optimización de software.Lanzará soporte de software y nuevas funciones para FP8 en septiembre, y predice que Gaudi2 superará a H100 en términos de rendimiento y rentabilidad. Otro AMD, considerado un fuerte competidor de Nvidia, no presentó los resultados de las pruebas.
Los resultados del benchmark MLPerf son publicados por MLCommons. Según David Kanter, director ejecutivo de MLCommons, GPT-3 es el punto de referencia de MLPerf más exigente desde el punto de vista computacional, y la mayoría de las redes de referencia en MLPerf pueden ejecutarse en un solo procesador, pero GPT-3 requiere al menos 64 procesadores.
**03.La carrera armamentista de modelos a gran escala de IA se está calentando, y la demanda de chips de IA con gran poder de cómputo se está disparando
Las empresas de tecnología están integrando activamente la IA en sus productos y servicios, y los inversionistas están entusiasmados con la inversión en nuevas empresas de IA generativa.Obviamente, nadie quiere perderse esta ola de posibles oportunidades de crecimiento histórico debido a la velocidad informática atrasada.
Apenas esta semana, nació la adquisición de IA generativa más grande hasta el momento en el país y en el extranjero: el superunicornio estadounidense de big data Databricks acordó adquirir MosaicML, una gran startup de modelo de lenguaje estadounidense, por US $ 1.3 mil millones (aproximadamente RMB 9.4 mil millones). Tuan anunció ayer que adquirirá Light Years Beyond, una startup modelo a gran escala fundada por el cofundador de Meituan, Wang Huiwen, por 2.065 millones de yuanes.
**El entrenamiento de modelos generativos de IA es inseparable de los costosos chips informáticos del centro de datos. En el contexto de la feroz carrera armamentista de los modelos a gran escala, la demanda del mercado de chips de IA con gran potencia informática sigue aumentando. En la actualidad, solo hay un verdadero ganador de chips para entrenar modelos grandes de IA: Nvidia. **
En noviembre del año pasado, Oracle anunció la compra de decenas de miles de A100 y H100 para construir un nuevo centro de cómputo. Google anunció el A3, una supercomputadora de inteligencia artificial con 26 000 H100, en su conferencia de desarrolladores de E/S en mayo de este año. Esta semana, los medios extranjeros informaron que Oracle está gastando miles de millones de dólares para comprar chips Nvidia para expandir los servicios de computación en la nube para la nueva ola de IA.
El hecho de que Nvidia pueda continuar ganando en el futuro está estrechamente relacionado con el mercado chino. Según el informe financiero, los ingresos de China continental y Hong Kong representaron el 22 % de los ingresos de Nvidia el año pasado. Según los informes de "LatePost", después del Festival de Primavera de este año, las principales empresas de Internet en China con negocios de computación en la nube han realizado grandes pedidos con Nvidia. Se ha realizado un pedido de nivel Wanka para Nvidia, y se estima que el valor supera los mil millones. yuan basado en el precio de lista. Byte solo puede haber realizado pedidos este año cerca del número total de GPU comerciales que Nvidia vendió en China el año pasado. Excluyendo los nuevos pedidos de este año, el número total de Byte A100 y su predecesor V100 se acerca a los 100 000 yuanes; el número total de A100 y H800 que Byte ha llegado y no ha llegado es de 100 000 yuanes.
Después de que surgieran rumores esta semana de que el Departamento de Comercio de EE. UU. estaba considerando más restricciones a las exportaciones de A800 y H800 de Nvidia a China, la directora financiera de Nvidia, Colette Kress, advirtió: hará que la industria de EE. UU. pierda permanentemente la oportunidad de competir y liderar en uno de los los mercados más grandes del mundo, y afectará nuestro futuro negocio y rendimiento financiero".
**04.Conclusión: Está a solo un paso de llegar a la cima de la empresa de diseño de chips más grande del mundo
Independientemente del rendimiento del producto, los nuevos pedidos, el progreso del rendimiento, el rendimiento del mercado de valores, la expansión ecológica o el diseño de la inversión, Nvidia ya ha ganado visiblemente a simple vista.
El 25 de mayo, Nvidia publicó su informe financiero para el primer trimestre del año fiscal 2024, en el que logró ingresos de 7190 millones de dólares estadounidenses en un solo trimestre y pronosticó que sus ingresos en el segundo trimestre alcanzarían los 11 000 millones de dólares estadounidenses. El 12 de junio, según los informes de los medios de Taiwán, impulsado por el aumento de los pedidos de chips Nvidia AI, la tasa de utilización del proceso avanzado de TSMC aumentó significativamente y la tasa de utilización de la capacidad de producción de 5 nm aumentó de más del 50 % al 70 % a 80%.
Según los datos publicados recientemente por la organización de investigación de mercado TrendForce, los ingresos de Nvidia en el primer trimestre de 2023 aumentarán un 13,5 % en EE. 6730 millones de dólares La cuota de mercado del diseño de chips aumentó al 19,9 %.
TrendForce predice que debido a la implementación de chips relacionados con la IA que estimulan el crecimiento de los ingresos, la tasa de crecimiento es obvia. En el segundo trimestre de 2023, se espera que Nvidia reemplace a Qualcomm para convertirse en la compañía de diseño de chips sin fábrica más grande del mundo.
Bajo el trasfondo de que Nvidia se ha convertido en el mayor beneficiario de la era de la IA generativa, los gigantes de chips como Intel y AMD están mirando hacia arriba, tratando de compartir el mercado de la computación con IA a través de la optimización colaborativa de software y hardware. Al mismo tiempo, si las empresas nacionales de chips de IA pueden captar esta ola de grandes dividendos de capacitación e implementación de modelos también se ha convertido en el foco de atención de la industria.