Nvidia ajusta el chip insignia H100 para exportarlo a China como H800

Nvidia, el diseñador estadounidense de semiconductores que domina el mercado de chips de inteligencia artificial, dijo que modificó su producto estrella en una versión que es legal para exportar a China.

El año pasado, los reguladores estadounidenses establecieron reglas que impidieron que Nvidia vendiera sus dos chips más avanzados, el A100 y el nuevo H100, a clientes chinos por motivos de seguridad nacional. Dichos chips son cruciales para desarrollar tecnologías de IA generativa como ChatGPT de OpenAI y productos similares. Reuters en noviembre informó que Nvidia había diseñado un chip llamado A800 que reducía algunas capacidades del A100 para que el A800 fuera legal para exportar a China.

El martes, la compañía dijo que desarrolló de manera similar una versión de exportación a China de su chip H100. El nuevo chip, llamado H800, está siendo utilizado por las unidades de computación en la nube de firmas tecnológicas chinas como Alibaba Group Holding Ltd, Baidu y Tencent Holdings, una dijo el portavoz de la compañía.

«Para las nuevas empresas jóvenes, muchas de ellas que están construyendo grandes modelos de lenguaje ahora, y muchas de ellas saltando a la revolución de la IA generativa, pueden esperar que Alibaba, Tencent y Baidu tengan excelentes capacidades en la nube con la IA de Nvidia», dijo el jefe de Nvidia. El ejecutivo Jensen Huang dijo a los periodistas el miércoles por la mañana, hora de Asia.

El otoño pasado, los reguladores estadounidenses impusieron reglas para frenar el desarrollo de China en sectores tecnológicos clave como los semiconductores y la inteligencia artificial, con el objetivo de obstaculizar los esfuerzos del país para modernizar su ejército.

Las reglas en torno a los chips de inteligencia artificial impusieron una prueba que prohíbe a aquellos con capacidades informáticas poderosas y altas tasas de transferencia de datos de chip a chip. La velocidad de transferencia es importante cuando se entrenan modelos de inteligencia artificial en grandes cantidades de datos porque las tasas de transferencia más lentas significan más tiempo de entrenamiento.

Una fuente de la industria de chips en China dijo que el H800 redujo principalmente la tasa de transferencia de datos de chip a chip a aproximadamente la mitad de la tasa del buque insignia H100.

El portavoz de Nvidia se negó a decir en qué se diferencia el H800 enfocado en China del H100, excepto que «nuestros productos de la serie 800 cumplen totalmente con las regulaciones de control de exportaciones». Ver las imágenes en nuestro Portal Tv.

Fuente: reuters

Nvidia

(Visited 1.007 times, 1 visits today)

About The Author

Videos Relacionados

Hola 👋

Abrir chat
Chatea con nosotros
Hola Somos CSTIC TV.
¿En qué podemos ayudarte?