Nvidia anuncia la tecnología de amplificador | bit-tech.net

Nvidia anunció oficialmente su arquitectura de amplificador, la GPU A100, en una serie de discursos basados ​​en la cocina, y por supuesto debería significar un salto masivo en el rendimiento de la GPU.

Como parte de la conferencia magistral digital de GTC, Jensen Huang, CEO de Nvidia, proporcionó mucha información interesante sobre la tecnología y evitó las principales noticias sobre la serie de GPU GeForce. Ah, e hizo todo esto sobre su cocina. El calendario completo está disponible como parte de una lista de reproducción en YouTube conocida como Kitchen Keynote. Sin embargo, aquí están los detalles clave.

El gran problema es que la nueva GPU A100, que se basa en la arquitectura de amperios, ofrecerá un salto en el rendimiento de la IA de 20 veces, según Huang. Es la potencia detrás del nuevo sistema DGX A100 AI que puede entregar 5 petaflops de potencia gracias a ocho GPU A100. Huang dijo: «Por primera vez, las cargas de trabajo de ampliación y escalabilidad pueden acelerarse en una plataforma. Nvidia A100 también aumenta el rendimiento y reduce los costos del centro de datos. «

El acelerador A100 se basa en el nodo de proceso TSMC de 7 nm con apilamiento 3D, contiene 54 mil millones de transistores y ofrece núcleos tensoriales de tercera generación, MIG de tercera generación, NVLink y NVSwitch, así como un ancho de banda de memoria de 1.6 TB / s HBM2 a 1.6 TB / s.

¿Cómo se traduce eso? Entre otras cosas, esto significa 6,912 núcleos FP32 CUDA, un reloj de impulso de aproximadamente 1.41 GHz, un reloj de memoria de 2.4 Gbit / s HBM2 y 40 GB de VRAM.

En comparación, el acelerador GV100 GPU / V100 basado en Volta anterior ofrecía 5.120 núcleos FP32 CUDA, un reloj de refuerzo de 1.53 GHz, un reloj de memoria de 1.75 Gbit / s HBM2 y 16 GB / 32 GB VRAM.

Si bien las especificaciones podrían ser un poco menos revolucionarias de lo que cabría esperar, Huang explicó que las tecnologías como los núcleos tensoriales de tercera generación significan que el entrenamiento de IA de precisión simple es mucho mejor que cualquier cosa que se haya visto con nuevas técnicas de eficiencia como Acelerando la escasez estructural, mejorando el rendimiento matemático de IA. La GPU de varias instancias, también conocida como MIG, permite que un A100 se particione en hasta 7 GPU independientes, cada una con sus propios recursos. A100 es básicamente más inteligente y mucho más eficiente.

Huang también aprovechó el tiempo para demostrar cómo la compañía trabajó con investigadores y científicos para usar GPU y computación de inteligencia artificial para apoyar los esfuerzos de COVID-19. Por ejemplo, Oxford Nanopore Technologies ha secuenciado el genoma del virus en solo 7 horas, mientras que Plotly está rastreando en tiempo real la tasa de infección gracias a los esfuerzos de inteligencia artificial de Nvidia.

Como suele ser el caso con las sesiones informativas de GTC, no hubo noticias sobre productos de consumo, i. H. La serie de amplificadores GeForce. En cambio, hay rumores de que habrá un evento de juegos en septiembre que asegurará que se acerque al lanzamiento de Cyberpunk 2077. Esto nos parece lógico dados los enlaces que ya se han producido con los productos GeForce y Cyberpunk 2077.

Siempre que este sea el caso, espere algunas especificaciones y un rendimiento previsiblemente impresionantes cuando el A100 se cuestione.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *