Saltar al contenido

NVIDIA: Resultados en Servidores Basados en Arm de acurdo a MLPerf

  • por

NVIDIA amplía su liderazgo en rendimiento de inferencia de IA, con resultados de debut en servidores basados ​​en Arm

ReacciónFMTV

Los últimos puntos de referencia de MLPerf muestran que NVIDIA ha extendido sus altas marcas en rendimiento y eficiencia energética para la inferencia de IA a las computadoras Arm y x86.

 

Dave Salvator, actual Senior Product Manager, AI Inference and Cloud de NVIDIA, ha presentado los resultados del comparativo realizado por MLCommons y por tercera ocasión consecutiva, NVIDIA ha establecido records en cuanto a desempeño  y eficiencia energética de acuerdo a las pruebas realiazadas por este grupo de evaluación comparativa de la industria formado en mayo de 2018.

De las siete pruebas de rendimiento de la inferencia de IA, NVIDIA ganó todas y es la única empresa que informa los resultados de todas las pruebas de MLPerf en esta y todas las rondas hasta la fecha.

La inferencia es lo que sucede cuando una computadora ejecuta un software de inteligencia artificial para reconocer un objeto o hacer una predicción. Es un proceso que utiliza un modelo de deep learning para filtrar datos y encontrar resultados que ningún ser humano podría capturar.

Los puntos de referencia de inferencia de MLPerf se basan en las cargas de trabajo y los escenarios de IA más populares de la actualidad, que abarcan la visión por computadora, las imágenes médicas, el procesamiento del lenguaje natural, los sistemas de recomendación, el aprendizaje por refuerzo y más. Por lo tanto, independientemente de las aplicaciones de inteligencia artificial que implementen, los usuarios pueden establecer sus propios registros con NVIDIA.

MLPerf brinda a los usuarios la confianza para tomar decisiones de compra informadas. Cuenta con el respaldo de docenas de líderes de la industria, incluidos: Alibaba, Arm, Baidu, Google, Intel y NVIDIA, por lo que las pruebas son transparentes y objetivas.

Además del rendimiento, NVIDIA mostró su liderazgo en eficiencia energética, gracias a las pruebas realizadas en su cartera de GPUs: NVIDIA A100 Tensor CoreA30 y Jetson AGX Xavier.

La arquitectura ARM se empieza a abrir paso en los data centers de todo el mundo debido en gran parte a su eficiencia energética. Los puntos de referencia muestran que como plataforma acelerada por GPU, servidores basados en ARM pueden ofrecer el mismo rendimientos que los basados en x86 configurados de manera similar para trabajos de inferencia de IA.

NVIDIA está orgulloso de haber ayudado a ARM a demostrar su destreza en IA en un punto de referencia de la industria.

También los socios de NVIDIA han demostrado su poder ya que la tenoclogía de NVIDIA de IA está respaldada por un ecosistema muy amplio.

Siete fabricantes presentaron un total de 22 plataformas aceleradas por GPU’s en los últimos puntos de referencia. Modelos que en su mayoría están certificados por NVIDIA y están validados para ejecutar una amplia gama de cargas de trabajo aceleradas. Muchos de ellos ya son compatibles con  NVIDIA AI Enterprise, software lanzado oficialmente el mes pasado.

Algunos de los socios que participaron fueron Dell Technologies, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro. También tuvo participación el proveedor de  servicios en cloud Alibaba.

En gran medida el éxito de NVIDIA se debe a un ingrediente clave que es su batería de software completa.

Salvator hizo hincapié en que todo el software que se usó en las pruebas esta disponible en el repositorio de MLPerf, por lo que cualquiera puede reproducir los resultados de referencia.

Gracias a las mejoras continuas en la batería de software, NVIDIA logró ganancias de hasta un 20 por ciento en rendimiento y un 15 por ciento en eficiencia energética con respecto a los anteriores puntos de referencia de inferencia de MLPerf hace solo cuatro meses.

Para conocer más sobre la plataforma de inferencia de NVIDIA puedes checar en su sitio NVIDIA Inference Technology Overview.