AWS anuncia tres nuevas instancias de Amazon EC2 con chips propios

Las instancias de Amazon EC2 C7g con los nuevos procesadores AWS Graviton3 ofrecen un rendimiento hasta un 25% superior para las cargas de trabajo de cálculo intensivo con respecto a la generación actual de instancias C6g con procesadores AWS Procesadores Graviton2 Las instancias de Amazon EC2 Trn1 potenciadas por los chips de AWS Trainium proporcionan el mejor rendimiento de precio y el tiempo más rápido para entrenar la mayoría de los modelos de aprendizaje automático en Amazon EC2 Las instancias de Amazon EC2 Im4gn/Is4gen/I4i cuentan con las nuevas unidades SSD AWS Nitro para obtener el mejor rendimiento de almacenamiento para cargas de trabajo de E/S intensivas

183

Amazon Web Services ha anunciado tres nuevas instancias de Amazon Elastic Compute Cloud (Amazon EC2) con chips diseñados por AWS que ayudan a los clientes a mejorar significativamente el rendimiento, el coste y la eficiencia energética de sus cargas de trabajo que se ejecutan en Amazon EC2.

«Con nuestras inversiones en chips diseñados por AWS, los clientes han obtenido enormes beneficios de rendimiento en el precio para algunas de las cargas de trabajo más críticas para el negocio de hoy en día. Estos clientes nos han preguntado para continuar impulsando los límites con cada nueva generación de instancias de EC2», dijo David Brown, Vicepresidente Amazon EC2 en AWS.

“La innovación continua de AWS significa que los clientes están obteniendo instancias totalmente nuevas y revolucionarias para ejecutar sus cargas de trabajo más importantes con un rendimiento de precio significativamente mejor que en cualquier otro lugar”.

Las instancias C7g con los nuevos procesadores AWS Graviton3 ofrecen hasta un 25% más de rendimiento en comparación con la generación actual de instancias C6g con procesadores AWS Graviton2.

Clientes como DirecTV, Discovery, Epic Games, Fórmula 1, Honeycomb.io, Intuit, Lyft, MercardoLibre, NextRoll, Nielsen, SmugMug, Snap, Splunk y Sprinklr han visto un aumento significativo del desempeño y costes reducidos al ejecutar instancias basadas en AWS Graviton2 en producción desde su lanzamiento en 2020.

La cartera de Graviton2 ofrece 12 instancias diferentes que incluyen instancias de propósito general, optimizadas para el cómputo, optimizadas para la memoria, para el almacenamiento, con capacidad de ráfagas y aceleradas, para que los clientes tengan la mayor y más amplia oferta de computación rentable y de bajo consumo en la en la nube.

A medida que los clientes llevan a la nube más cargas de trabajo de cálculo intensivo, como la computación de alto rendimiento (HPC) los juegos y la inferencia de aprendizaje automático y a medida que crecen sus demandas de computación, almacenamiento, memoria y redes, buscan un mejor rendimiento y eficiencia energética para ejecutar estas exigentes cargas de trabajo.

Las instancias C7g, con procesadores AWS Graviton3 de última generación, ofrecen un rendimiento hasta un 25% superior para las cargas de trabajo de cálculo intensivo en comparación con la generación actual de instancias C6g con procesadores Graviton2. Los procesadores AWS Graviton3 también ofrecen un rendimiento en coma flotante hasta 2 veces superior para uso científico, de aprendizaje automático y de codificación de medios, y hasta 2 veces más rendimiento para cargas de trabajo criptográficas y hasta 3 veces más rendimiento para cargas de trabajo de aprendizaje automático en comparación con la generación anterior de procesadores AWS Graviton2.

Los procesadores AWS Graviton3 son también más eficientes energéticamente, ya que utilizan hasta un 60% menos de energía para el mismo rendimiento que las instancias EC2 comparables. Las instancias C7g son las primeras en la nube que cuentan con la última memoria DDR5, que proporciona un 50% más de ancho de banda de memoria que las instancias basadas en AWS Graviton2 para mejorar el rendimiento de aplicaciones que hacen un uso intensivo de la memoria, como la informática científica.

Las instancias C7g son compatibles con Elastic Fabric Adapter (EFA), que permite que las aplicaciones se comuniquen directamente con las tarjetas de interfaz de red, proporcionando una latencia más baja y consistente, para mejorar el desempeño de las aplicaciones que requieren procesamiento paralelo a escala como HPC y codificación de vídeo.

Las instancias Trn1 impulsadas por los chips de AWS Trainium proporcionan el mejor rendimiento de precio y el tiempo más rápido para entrenar la mayoría de los modelos de aprendizaje automático en Amazon EC2.

Cada vez son más los clientes que construyen, entrenan y despliegan modelos de aprendizaje automático para potenciar aplicaciones que tienen el potencial de reinventar sus negocios y las experiencias de los clientes. Sin embargo, para garantizar una mejor precisión, estos modelos de aprendizaje automático deben consumir cantidades cada vez mayores de datos de entrenamiento, lo que hace que su entrenamiento cada vez sea más costoso. Este dilema puede tener el efecto de limitar el número de modelos de aprendizaje automático que los clientes pueden desplegar.

AWS ofrece la más amplia y profunda gama de ofertas de computación para el aprendizaje automático, incluyendo las instancias EC2 P4d con GPUs NVIDIA A100 Tensor Core e instancias EC2 DL1 con aceleradores Gaudí de Habana Labs. Pero incluso con las instancias aceleradas más rápidas disponibles hoy en día, todavía puede resultar prohibitivo y lento entrenar modelos de aprendizaje automático cada vez más grandes.

Las instancias Trn1 impulsadas por los chips AWS Trainium ofrecen el mejor rendimiento de precios y el entrenamiento de modelos de aprendizaje automático más rápido en Amazon EC2, proporcionando hasta un 40% menos de coste para entrenar modelos de aprendizaje en comparación con las últimas instancias P4d. Las instancias Trn1 ofrecen un banda ancha de red EFA de 800 Gbps (el doble que las últimas instancias basadas en GPU de EC2) y se integran con Amazon FSx para el almacenamiento de alto rendimiento, lo que permite a los clientes lanzar instancias Trn1 con capacidad de EC2 UltraClusters.

Con EC2 UltraClusters, los desarrolladores pueden escalar la formación de aprendizaje automático a más de 10.000 aceleradores Trainium interconectados con redes a escala de petabits, lo que ofrece a los clientes acceso bajo demanda a un rendimiento de clase de supercomputación para reducir el tiempo de formación de meses a días incluso para los modelos más grandes y complejos.

Las instancias Im4gn/Is4gen/I4i con las nuevas SSD AWS Nitro ofrecen el mejor rendimiento de almacenamiento para cargas de trabajo intensivas de E/S.

En la actualidad, los clientes utilizan instancias optimizadas para el almacenamiento de I3/I3en para aplicaciones que requieren acceso directo a conjuntos de datos en el almacenamiento local, como las bases de datos transaccionales y relacionales a escala (por ejemplo, MySQL y PostgreSQL), bases de datos NoSQL (p. ej. Cassandra, MongoDB, Redis, etc.), big data (p. ej. Hadoop) y cargas de trabajo de de datos (por ejemplo, Spark, Hive, Presto, etc.).

Las instancias I3/I3en ofrecen memoria no volátil Express (NVMe) respaldada por SSD y optimizada para una baja latencia, un alto rendimiento de E/S y un rendimiento a un bajo coste. Los clientes aprecian los rápidos tiempos de transacción que proporcionan las instancias I3/I3en, pero a medida que envuelven sus cargas de trabajo para procesar transacciones incluso más complejas en conjuntos de datos más grandes, necesitan un rendimiento informático aún mayor y un acceso más rápido a los datos, sin costes más elevados.

Las instancias Im4gn/Is4gen/I4i están diseñadas para maximizar el rendimiento del almacenamiento de las cargas de trabajo de E/S intensivas de E/S. Las instancias Im4gn/Is4gen/I4i ofrecen hasta 30 TB de almacenamiento NVMe de AWS Nitro SSD diseñadas por AWS, que ofrecen hasta un 60% menos de latencia de E/S y un 75% menos de variabilidad de latencia en comparación con generación anterior de instancias I3 para maximizar el rendimiento de las aplicaciones.

Las unidades SSD de AWS Nitro están estrechamente integrados con el sistema AWS Nitro vía optimizaciones en la pila de almacenamiento, el hipervisor y el hardware. Dado que AWS gestiona tanto el hardware como el firmware de las SSD AWS Nitro, los clientes se benefician de una funcionalidad mejorada porque las actualizaciones de las SSD se entregan más rápidamente en comparación con el uso de SSDs comerciales.

Las instancias Im4gn cuentan con procesadores AWS Graviton2 y proporcionan hasta 40% más de rendimiento y hasta un 44% menos de coste por TB de almacenamiento en comparación con las instancias I3. También utilizan procesadores AWS Graviton2 y proporcionan hasta un 15% menos de coste por TB de almacenamiento y hasta un 48% más de rendimiento informático en comparación con las instancias I3en. Las instancias I4i (disponibles próximamente) cuentan con procesadores Intel Scalable de 3ª generación (Ice Lake), que ofrecen un rendimiento informático hasta un 55% superior a la generación actual I3.

SAP HANA es una base de datos en memoria líder en el mundo que sirve como base de la plataforma tecnológica empresarial SAP. «Durante la última década, SAP HANA ha ayudado a los clientes a gestionar sus cargas de trabajo transaccionales y analíticas más críticas», dijo Irfan Khan, Presidente de HANA Database & Analytics de SAP. «Las inversiones e innovaciones de AWS en los procesadores AWS Graviton basados en ARM y SAP HANA Cloud son una gran unión con potencial para ofrecer beneficios de mejora de operación y rendimiento a nuestros clientes empresariales y soluciones de análisis y gestión de datos en la nube de SAP potenciadas por SAP HANA Cloud».

Twitter es lo que está sucediendo y de lo que la gente está hablando en este momento.

«Twitter está trabajando en un proyecto de varios años para aprovechar las instancias EC2 basadas en AWS Graviton para ofrecer líneas de tiempo de Twitter. Como parte de nuestra ingeniería en curso para impulsar mayores eficiencias, probamos las nuevas instancias C7g basadas en Graviton3», dijo Nick Tornow, Jefe de Plataforma de Twitter.

«A través de una serie de puntos de referencia que hemos encontrado resulto ser representativos del rendimiento de las cargas de trabajo de Twitter, encontramos que las instancias C7g basadas en Graviton3 ofrecen un  rendimiento entre un 20% y un 80% mayor que las instancias C6g basadas en Graviton2. Mientras que se reducen las latencias de cola hasta en un 35%. Estamos encantados de utilizar instancias basadas en Graviton3 en el futuro para obtener importantes ventajas de rendimiento en cuanto al precio».

La Fórmula 1 (F1) comenzó en 1950 y es la competición automovilística más prestigiosa del mundo, así como la serie deportiva anual más popular. «Ya habíamos visto que las instancias basadas en Graviton2 C6gn nos proporcionaban el mejor rendimiento en precio para algunas de nuestras cargas de trabajo CFD. Ahora hemos comprobado que las instancias Graviton3 C7g son un 40% más rápidas que las instancias Graviton2 C6gn para esas mismas simulaciones», dijo Pat Symonds, CTO de Fórmula 1 Management. «Estamos encantados de que la EPT sea estándar en este tipo de instancia, y dado este rendimiento de precio tan mejorado, esperamos que las instancias basadas en Graviton3- se conviertan en la opción óptima para ejecutar todas nuestras cargas de trabajo CFD».

Fundada en 1991, Epic Games es la creadora de Fortnite, Unreal, Gears of War, Shadow Complex y la serie de juegos Infinity Blade. La tecnología Unreal Engine de Epic trae experiencias interactivas de alta fidelidad experiencias interactivas de alta fidelidad a PC, consola, móvil, AR, VR y la Web. «Mientras miramos al futuro y construimos experiencias cada vez más inmersivas y atractivas para los jugadores, estamos entusiasmados con el uso de AWS basados basado en instancias EC2», dijo Mark Imbriaco, Director Senior de Ingeniería de Epic Games. «Nuestras pruebas han demostrado que son adecuadas incluso para las cargas de trabajo más exigentes y sensibles a la latencia, a la vez que proporcionan importantes ventajas de rendimiento en cuanto al precio y amplían lo que es posible dentro de Fortnite y cualquier experiencia creada con Unreal Engine».

Honeycomb desarrolla una plataforma de observabilidad que permite a los equipos de ingeniería visualizar, analizar y mejorar la calidad y el rendimiento de las aplicaciones en la nube. «Estamos muy contentos de haber probado nuestra carga de trabajo de ingestión de telemetría de alto rendimiento en las primeras instancias de vista previa de AWS Graviton3 y de haber visto un aumento del 35% en el desempeño de nuestra carga de trabajo con respecto a Graviton2», dijo Liz Fong-Jones, principal de honeycomb.io. «Pudimos ejecutar un 30% menos de instancias de C7g que de C6g sirviendo la misma carga de trabajo, y con un 30% menos de latencia. Estamos buscando adoptar las instancias de AWS Graviton3 en producción una vez que estén disponibles».

Anthropic construye sistemas de IA fiables, interpretables y dirigibles que tendrán muchas oportunidades de crear valor comercial y para el beneficio público. «Nuestros intereses de investigación abarcan múltiples áreas que incluyen lenguaje natural, la retroalimentación humana, las leyes de escalado, el aprendizaje por refuerzo, la generación de código y la interpretabilidad. Una de las principales claves de nuestro éxito es el acceso a una infraestructura moderna que nos permita poner en marcha grandes flotas de aceleradores de aprendizaje profundo de alto rendimiento», dijo Tom Brown, cofundador de Anthropic. «Estamos deseando utilizar las instancias de Trn1 potenciadas por AWS Trainium, ya que su capacidad sin precedentes de escalar a decenas de miles de nodos y un mayor ancho de banda de red nos permitirá nos permitirá iterar más rápido manteniendo nuestros costes bajo control».

Splunk es un proveedor líder de plataformas de datos y está diseñado para investigar, supervisar, analizar y actuar sobre datos a cualquier escala. «Ejecutamos cargas de trabajo basadas en C/C++ para indexar y buscar datos de eventos. Nuestra carga de trabajo está ligada a la CPU y se beneficia de un almacenamiento SSD de alta capacidad y baja latencia», dijo Brad Murphy, Vicepresidente de la Plataforma e Infraestructura en la Nube de Split.

«Al evaluar las nuevas instancias Im4gn/Is4gen impulsadas por AWS Graviton2, observamos una disminución de hasta el 50% en el tiempo de ejecución de la búsqueda en comparación con las instancias I3/I3en que utilizamos actualmente. Esto hace que las instancias Im4gn e Is4gen sean una gran opción para ejecutar nuestras cargas de trabajo de almacenamiento intensivo con una mejora significativa del rendimiento del precio y un menor TCO».

Sprinklr ayuda a las mayores empresas del mundo a hacer más felices a sus clientes en más de 30 canales digitales utilizando el motor de IA más avanzado y sofisticado construido para la empresa para crear estrategias y mejores experiencias de los clientes. «Hemos evaluado nuestras cargas de trabajo de búsqueda basadas en Java en instancias Amazon EC2 Im4gn/Is4gen con procesadores AWS Graviton2. Las instancias Is4gen más pequeñas ofrecen un rendimiento similar al de las instancias I3en más grandes, lo que representa una oportunidad para reducir significativamente», dijo Abhay Bansal, Vicepresidente de Ingeniería de Sprinklr.

«También vimos una significativa reducción de 50% en la latencia de las consultas al trasladar nuestras cargas de trabajo de las instancias I3 a Im4gn, lo que indica un beneficio significativo del 40% en el rendimiento del precio. El cambio a las instancias basadas en AWS Graviton2 fue fácil, ya que se tardó dos semanas para completar la evaluación comparativa. Estamos muy contentos con nuestra experiencia y estamos deseando ejecutar estas cargas de trabajo en producción en instancias Im4gn e Is4gen»

Redis Enterprise impulsa aplicaciones y servicios de misión crítica para más de 8.000 organizaciones en todo el mundo permitiendo a los equipos de software crear una capa de datos de alto rendimiento para el mundo en tiempo real. «Estamos encantados de ver que las instancias de Amazon EC2 I4i utilizan las nuevas unidades SSD AWS Nitro de baja latencia que ofrecen una mejor velocidad de transacción que las instancias de la generación anterior», dijo Yiftach Shoolman, cofundador y CTO de Redis. «Esperamos que el mayor rendimiento del almacenamiento y las mayores velocidades de red y del procesador de las instancias I4i ofrecerán mejoras significativas a un coste total de propiedad aún más atractivo para nuestros clientes que utilizan Redis-on-Flash en instancias I4i».19

Autor

  • Director General. Owner.

    Director de Mediaware Marketing, editora de ITware Latam, Enfasys Argentina, ITseller Chile, entre otros. 30 años en el sector IT.