Acelera la inferencia de IA generativa con los microservicios NVIDIA NIM en Amazon SageMaker
En la conferencia NVIDIA GTC 2024, se anunció el soporte para los NVIDIA NIM Inference Microservices en Amazon SageMaker Inference. Esta integración permite desplegar los modelos de lenguaje grandes (LLMs) líderes en la industria en SageMaker y optimizar su rendimiento y costo. Los contenedores pre-optimizados permiten el despliegue de LLMs avanzados en minutos en lugar de días, facilitando su integración