Servicios web de Amazon el viernes Anunciado la disponibilidad general de las instancias G4 de Elastic Compute Cloud (EC2). Con GPU Nvidia T4 Tensor Core, las instancias en la nube están optimizadas para acelerar la inferencia de aprendizaje automático y las cargas de trabajo con uso intensivo de gráficos.

Amazon presentó una vista previa de las instancias G4 junto con Nvidia en marzo. Nvidia también anunció en ese momento que Cisco, Dell EMC, Fujitsu, HPE y Lenovo ofrecen GPU T4. En enero, Google comenzó a ofrecer GPU T4 en Google Cloud Platform en versión beta.

Las GPU T4 pueden ser útiles para ejecutar aplicaciones basadas en aprendizaje automático, como agregar metadatos a una imagen, detección de objetos, sistemas de recomendación, reconocimiento de voz automatizado o traducción de idiomas. También son una plataforma rentable para crear y ejecutar aplicaciones con uso intensivo de gráficos, incluidas estaciones de trabajo de gráficos remotas, transcodificación de vídeo o diseño fotorrealista.

Junto con la última generación de GPU T4, las instancias G4 de Amazon cuentan con procesadores escalables Intel Xeon de segunda generación personalizados, hasta 100 Gbps de rendimiento de red y hasta 1,8 TB de almacenamiento NVMe local.

En las próximas semanas, las instancias G4 admitirán Amazon Elastic Inference, lo que permitirá a los desarrolladores reducir costos al proporcionar la cantidad adecuada de rendimiento de GPU para sus cargas de trabajo.

Las instancias G4 ahora están disponibles en las regiones de EE. UU. Este (Norte de Virginia, Ohio), EE. UU. Oeste (Oregón, Norte de California), Europa (Frankfurt, Irlanda, Londres) y Asia Pacífico (Seúl y Tokio), con disponibilidad en otras regiones. regiones previstas en los próximos meses.