Lenovo amplía su liderazgo en AI y HPC con soporte para NVIDIA Tesla V100 de 32 GB

Con la Conferencia sobre Tecnología para la GPU que se celebra en San José, California, Lenovo se complace en anunciar que estamos ampliando nuestro soporte para las GPU NVIDIA® Tesla® V100, basadas en la arquitectura Volta, para incluir la recién anunciada plataforma de 32 GB. Nuestro enfoque en el pujante mercado de la Inteligencia Artificial (AI) requiere que proporcionemos a nuestros clientes herramientas potentes como la GPU Tesla V100 de 32 GB para ejecutar sus cargas de trabajo de aprendizaje profundo (DL), aprendizaje automático (ML) e inferencia. En el área de Computación de Alto Rendimiento (HPC), nuestros clientes pondrán en funcionamiento la Tesla V100 de 32 GB para potenciar su investigación en los servidores ThinkSystem de Lenovo, mientras intentan resolver algunos de los mayores desafíos de la humanidad.

A partir de junio, Lenovo brindará soporte para la Tesla V100 de 32 GB en nuestro ultra-sólido ThinkSystem SD530, que fue galardonado con el premio HPCWire Reader's Choice 2017 al Mejor Servidor HPC, y en nuestro sistema de bastidor ThinkSystem SR650 más vendido. Esto proporcionará a los clientes plataformas ThinkSystem de calidad a través de cargas de trabajo de HPC, Cargas de Trabajo de Aprendizaje Automático, Aprendizaje Profundo e Inferencia, mejoradas con la GPU de mayor rendimiento de NVIDIA.".

Desafíos de la Capacitación

Muchos de los modelos de Aprendizaje Profundo (DL) más grandes y complejos de hoy en día pueden tardar días o incluso semanas en entrenarse. Los clientes que trabajan con nuestros Centros de Innovación AI para desarrollar y probar sus modelos ML y DL han experimentado estos retrasos con conjuntos de datos más grandes. Al duplicar la capacidad de memoria de la Tesla V100 a 32 GB, los clientes pueden aumentar el tamaño del lote de capacitación que se está ejecutando y reducir sustancialmente el tiempo de capacitación, acelerando el tiempo de conocimiento al reducir su tiempo de capacitación. 

Esta configuración de memoria más alta permite a las aplicaciones HPC ejecutar simulaciones más grandes de manera más eficiente que nunca. Especialmente las aplicaciones HPC que tienen limitaciones de memoria. Por ejemplo, los grandes cálculos FFT 3D, que se utilizan habitualmente en aplicaciones sísmicas, climáticas y de procesamiento de señales, son hasta un 50% más rápidos con la Tesla V100 de 32 GB.

Facilitar la AI y el HPC

Hacer la vida más fácil a la persona que ejecuta los modelos y los conjuntos de datos es un objetivo primordial para Lenovo. La mayor capacidad de memoria de la Tesla V100 de 32 GB puede ahorrar tiempo al científico de datos al eliminar gran parte del ajuste y el equilibrio necesarios con las GPU con menor capacidad de memoria para mejorar su rendimiento.

Estamos intensamente enfocados en hacer la AI más fácil de implementar, ahorrando a nuestros clientes tiempo y, en consecuencia, dinero. Lenovo intelligent Computing Orchestrator (LiCO) es un buen ejemplo, ya que simplifica y automatiza toda la pila de software y hardware de AI, incluidas las GPU. Más información sobre LiCO.

Lenovo se complace en colaborar con NVIDIA para llevar la potencia de la nueva GPU NVIDIA TeslaV100 de 32 GB a nuestros clientes de AI y HPC.