Ir al contenido
Powered by Ghost

AWS y OpenAI cierran alianza de 38 mil MDD para escalar IA con cientos de miles de GPU

AWS y OpenAI anuncian una alianza estratégica de 38 mil millones de dólares para los próximos 7 años, brindando a OpenAI acceso a cientos de miles de GPU NVIDIA y decenas de millones de CPU, escalando sus cargas de IA y potenciando ChatGPT y futuros modelos.

Hoy, Amazon Web Services (AWS) y OpenAI anunciaron una asociación estratégica de varios años que proporciona la infraestructura de clase mundial de AWS para ejecutar y escalar las cargas de trabajo principales de inteligencia artificial (IA) de OpenAI de manera inmediata. Bajo este nuevo acuerdo de 38 mil millones de dólares, que continuará creciendo durante los próximos siete años, OpenAI tendrá acceso a la capacidad de cómputo de AWS, que incluye cientos de miles de GPU NVIDIA de última generación, con la posibilidad de expandirse a decenas de millones de CPU para escalar rápidamente las cargas de trabajo autónomas. AWS tiene una experiencia inusual ejecutando infraestructura de IA a gran escala de manera segura, confiable y eficiente, con clústeres que superan los 500,000 chips. El liderazgo de AWS en infraestructura en la nube, combinado con los avances pioneros de OpenAI en IA generativa, ayudará a millones de usuarios a seguir obteniendo valor de ChatGPT.

El rápido avance de la tecnología de IA ha creado una demanda sin precedentes de poder de cómputo. A medida que los proveedores de modelos de vanguardia buscan llevar sus modelos a nuevos niveles de inteligencia, recurren cada vez más a AWS debido al rendimiento, la escala y la seguridad que pueden ofrecer. OpenAI comenzará a utilizar de inmediato la capacidad de cómputo de AWS como parte de esta asociación, con toda la capacidad prevista para desplegarse antes de finales de 2026, y con la posibilidad de expandirse aún más en 2027 y años posteriores.

La infraestructura que AWS está construyendo para OpenAI cuenta con un diseño arquitectónico sofisticado, optimizado para lograr la máxima eficiencia y rendimiento en procesamiento de IA. La agrupación de las GPU NVIDIA—tanto GB200 como GB300—a través de los Amazon EC2 UltraServers en la misma red permite un rendimiento de baja latencia entre los sistemas interconectados, lo que permite a OpenAI ejecutar las cargas de trabajo de manera eficiente y con un rendimiento óptimo. Los clústeres están diseñados para soportar diversas cargas de trabajo, desde servir inferencias para ChatGPT hasta entrenar la siguiente generación de modelos, con la flexibilidad de adaptarse a las necesidades evolutivas de OpenAI.

“Escalar IA de vanguardia requiere cómputo masivo y confiable”, dijo Sam Altman, cofundador y CEO de OpenAI. “Nuestra asociación con AWS fortalece el ecosistema amplio de cómputo que impulsará esta nueva era y llevará la IA avanzada a todos”.
“Mientras OpenAI continúa empujando los límites de lo posible, la infraestructura de clase mundial de AWS servirá como columna vertebral para sus ambiciones de IA”, dijo Matt Garman, CEO de AWS. “La amplitud y la disponibilidad inmediata de cómputo optimizado demuestra por qué AWS está únicamente posicionada para respaldar las vastas cargas de trabajo de IA de OpenAI”.

Esta noticia continúa el trabajo conjunto de ambas compañías para ofrecer tecnología de IA de vanguardia que beneficie a organizaciones en todo el mundo. A principios de este año, los modelos de base con pesos abiertos de OpenAI se pusieron a disposición en Amazon Bedrock, llevando estas opciones adicionales de modelos a millones de clientes de AWS. OpenAI se ha convertido rápidamente en uno de los proveedores de modelos públicamente disponibles más populares en Amazon Bedrock, con miles de clientes—incluyendo Bystreet, Comscore, Peloton, Thomson Reuters, Triomics y Verana Health—utilizando sus modelos para flujos de trabajo autónomos, codificación, análisis científico, resolución de problemas matemáticos y más.

Comentarios

Más reciente