- OpenAI firma con AWS un acuerdo de 38.000 millones en siete años para asegurar cómputo masivo con Nvidia GB200/GB300 y EC2 UltraServers.
- Despliegue completo antes de 2026 y opción de ampliación posterior; capacidad dedicada ya en uso y nuevas instalaciones a medida.
- Movimiento clave de diversificación más allá de Microsoft, en un contexto de compromisos de infraestructura por 1,4 billones y señales de posible burbuja.
OpenAI ha dado un golpe de efecto en el tablero tecnológico al cerrar con Amazon Web Services un compromiso multimillonario para asegurarse músculo de cómputo a largo plazo. Hablamos de un acuerdo valorado en 38.000 millones de dólares que garantiza acceso inmediato y creciente a la nube de AWS para ejecutar y escalar las cargas de trabajo de inteligencia artificial más exigentes de la compañía liderada por Sam Altman.
Más allá de la cifra, lo relevante es el alcance: OpenAI podrá aprovechar infraestructura de primer nivel de AWS, con despliegue total previsto antes de que termine 2026 y opción de ampliación a partir de 2027. El pacto supone diversificar proveedores respecto a su histórica dependencia de Microsoft, a la vez que refuerza la capacidad de entrenamiento e inferencia de ChatGPT y de los próximos modelos frontera que la empresa tiene en el horno.
Qué han firmado OpenAI y AWS exactamente

El convenio es plurianual, con horizonte de siete años, y contempla que OpenAI empiece a utilizar desde ya capacidad dedicada de AWS. Según ambas compañías, parte de esa capacidad separada ya está operativa y el resto se irá activando de forma progresiva hasta completarse antes de finales de 2026, con margen para expandirse en los años siguientes en función de la demanda.
En lo operativo, OpenAI se apoyará en centros de datos existentes de AWS y, en paralelo, Amazon levantará instalaciones específicamente diseñadas para sus necesidades y orientadas al cloud nativo. Esas nuevas ubicaciones incorporarán un diseño arquitectónico sofisticado pensado para exprimir rendimiento y eficiencia energética al máximo, un aspecto crítico cuando el cómputo requerido crece a ritmo vertiginoso.
La alianza incluye el uso de servidores Amazon EC2 UltraServers, una arquitectura que agrupa grandes clústeres de GPU dentro de la misma red para minimizar latencias entre nodos. En la práctica, esto significa que los chips de Nvidia de última generación (GB200 y GB300) podrán comunicarse con un retardo mínimo, algo clave para entrenar modelos gigantes y servir inferencias a escala global sin cuellos de botella.
El objetivo declarado por las partes es claro: brindar a OpenAI una base de cómputo masiva, fiable y segura para sostener entrenamientos de nuevos modelos frontera, dar soporte al tráfico de ChatGPT y desplegar cargas de trabajo más complejas, incluidas las agentivas, con la elasticidad que solo un hiperescala como AWS puede proporcionar.
- Duración y valor: 38.000 millones de dólares durante siete años, con despliegue completo antes de 2026 y opción de crecimiento posterior.
- Capacidad dedicada: parte disponible desde el primer día y el resto en rampa, apoyada en centros de datos actuales y en nuevas instalaciones construidas a medida.
- Arquitectura: Amazon EC2 UltraServers con GPUs Nvidia GB200/GB300 y clústeres en la misma red para latencias ultrabajas.
- Usos previstos: entrenamiento de modelos de próxima generación, inferencia de ChatGPT y cargas de trabajo de IA de alta densidad.
La dimensión técnica: chips, clústeres y rendimiento

Entrenar modelos de lenguaje y sistemas multimodales del tamaño que maneja OpenAI exige agrupar cientos de miles de GPU y clústeres de alto rendimiento y conectarlas con una red de muy alta velocidad. La propuesta de AWS encaja en ese patrón: integra aceleradores Nvidia GB200 y GB300 en UltraServers conectados dentro de la misma malla, con el fin de reducir la latencia de comunicación entre chips y acelerar tanto el entrenamiento distribuido como el servido masivo de respuestas.
Cuando se trabaja a escala masiva, cada milisegundo que se rasca en comunicaciones internas puede traducirse en semanas de ahorro de tiempo de entrenamiento. Por eso, el énfasis de AWS está en interconexiones, gestión de colas y orquestación de recursos para que la eficiencia por chip y por clúster sea la más alta posible, evitando el desperdicio de capacidad y garantizando una utilización sostenida.
El diseño también tiene en cuenta escenarios mixtos: no solo entrenamiento de última hornada, sino inferencia de alto rendimiento para productos en producción como ChatGPT. A medida que la base de usuarios crece y las funciones se hacen más complejas, el coste por solicitud y la latencia percibida por el usuario final se convierten en métricas esenciales para mantener competitividad.
En este contexto, AWS presume de trayectoria operando clústeres de enorme tamaño en sectores como biotecnología, investigación climática o finanzas. Esa experiencia —en proyectos que requieren más de medio millón de chips en explotación coordinada— se traslada ahora a un cliente que demanda un nivel de estabilidad y seguridad inusual incluso para los estándares de la nube empresarial.
El resultado es una plataforma preparada para escalar en pasos grandes, capaz de absorber picos y de sostener cargas continuas de entrenamiento e inferencia durante meses. Para OpenAI, disponer de elasticidad y disponibilidad de este calibre no es un lujo, sino un prerrequisito para seguir empujando el listón de la IA de frontera sin frenar su hoja de ruta.
Movimiento estratégico y relación con otros proveedores cloud

Desde 2019 hasta 2023, OpenAI contrató toda su computación con Microsoft, su mayor inversor. Ese acuerdo incluía un derecho preferente por el cual solo podía acudir a otros proveedores de nube con la venia de Redmond. Este corsé se ha retirado recientemente tras renegociarse los términos, de modo que OpenAI puede firmar libremente con cualquier plataforma cloud, decisión que abre la puerta a pactos como el que nos ocupa con AWS.
En paralelo, OpenAI ha sellado compromisos de compra masivos con varios actores de la cadena de valor: ha trascendido un acuerdo adicional con Azure valorado en 250.000 millones de dólares, otro con Oracle de 300.000 millones para centros de datos, y contratos con fabricantes y proveedores como Nvidia, AMD, Broadcom o Google, además de un pacto por 22.400 millones con CoreWeave, uno de los referentes de las llamadas neo-nubes orientadas a desarrolladores de IA.
Hasta este anuncio, AWS había sido la rara avis entre los grandes clouds estadounidenses que daban soporte a OpenAI; ahora pasa a ser un socio de primer nivel. La jugada tiene miga, porque Amazon mantiene vínculos muy estrechos con Anthropic, competidor directo de OpenAI. Amazon ha invertido miles de millones en esa compañía y está construyendo un campus de 11.000 millones de dólares en Indiana para sus cargas, con grandes despliegues de Trainium2 ya en funcionamiento.
OpenAI, por su parte, continúa priorizando los aceleradores de Nvidia para sus cargas de mayor criticidad, en lugar de los procesadores Trainium de AWS, algo que ya venía apuntando el mercado. En lo comercial, la colaboración con Amazon también se deja notar en el ecosistema de servicios: Amazon Bedrock integra modelos de múltiples casas y, según las compañías, los clientes de AWS pueden acceder a modelos de OpenAI en ese entorno para casos de uso empresariales.
El consenso en la industria es que diversificar proveedores no es un capricho, sino una medida de resiliencia. Cuando la demanda de cómputo es descomunal y sostenida, depender de un único cloud supone un riesgo operativo y financiero que conviene mitigar. La entrada de AWS en la ecuación ofrece a OpenAI redundancia, negociar mejor en precio y plazos, y garantizar continuidad ante posibles tensiones de suministro de chips.
Impacto financiero, mercado e implicaciones para la industria

El acuerdo con AWS se enmarca en un esfuerzo sin precedentes de OpenAI por garantizar cómputo y energía a escala. La compañía ha reconocido compromisos por valor de 1,4 billones de dólares en infraestructura para construir y alimentar sus modelos de IA. Esa cifra, muy por encima de los estándares habituales del sector, ha encendido algunas alarmas sobre la posibilidad de una burbuja de inversión en torno a la economía de la IA.
Para ponerlo en perspectiva, Altman ha estimado que cumplir esos compromisos requerirá del orden de 30 gigavatios de potencia eléctrica, más del 2% de toda la capacidad instalada de Estados Unidos a finales de 2023, según datos oficiales. El proceso de levantamiento de centros de datos, asegurar suministro de chips y cerrar contratos energéticos a largo plazo se ha convertido en la verdadera carrera detrás de la carrera de la IA.
En el frente corporativo, OpenAI está completando su metamorfosis desde una estructura sin ánimo de lucro a un esquema capaz de generar beneficios para inversores. Este cambio organizativo allana el camino para una eventual salida a bolsa, un movimiento que diferentes medios han llegado a situar en valoraciones de hasta un billón de dólares, siempre sujeto a condiciones de mercado.
Las métricas financieras más inmediatas también tienen lectura. Se espera que OpenAI ingrese alrededor de 13.000 millones de dólares este año, si bien la empresa no prevé alcanzar la rentabilidad hasta 2029. Es un horizonte temporal largo que, unido al nivel de capex comprometido, explica por qué algunos inversores adoptan una postura cauta pese al entusiasmo general por la IA generativa.
El mercado bursátil reaccionó con optimismo al anuncio: las acciones de Amazon llegaron a avanzar en torno al 5% en los primeros compases de la sesión, con picos en algún tramo de hasta el 6%, y Nvidia registró subidas cercanas al 2,7%, en línea con su papel como proveedor dominante de aceleradores para IA. Para AWS, el acuerdo supone un aval a su capacidad para construir y operar redes de centros de datos gigantescos en la nueva era de la inteligencia artificial.
En este contexto, las grandes tecnológicas han intensificado su gasto en capital. Solo el año pasado, Amazon, Google, Meta y Microsoft sumaron inversiones superiores a 360.000 millones de dólares en capex, lo que alimenta el debate sobre sostenibilidad del ciclo inversor. Las relaciones circulares que se forjan entre clouds, fabricantes de chips y desarrolladores de IA —con compromisos cruzados y compras a largo plazo— son a la vez un motor de crecimiento y un foco de riesgo sistémico si la demanda no acompaña.
Para AWS, el pacto con OpenAI también tiene lectura competitiva: consolida su catálogo como infraestructura de referencia para cargas de IA de gran escala y, de rebote, fortalece su oferta para clientes empresariales que consumen modelos a través de servicios gestionados. Para OpenAI, la ganancia es doble: capacidad y resiliencia, con la flexibilidad de escalar sin depender de un único proveedor.
Claves para CTOs y equipos de arquitectura
La primera enseñanza es que no hay estrategia de IA sin una estrategia de cómputo. Si los líderes del sector están asegurando clústeres con aceleradores de última generación y redes de baja latencia, las organizaciones deberían priorizar la eficiencia de sus cargas (desde el entrenamiento hasta la inferencia) y cuidar métricas como coste por token y latencia p95 como si fueran indicadores de negocio.
- Optimización de extremo a extremo: del preprocesado al entrenamiento y al serving de inferencias, orquestando recursos para reducir espera y mejorar utilización.
- Arquitecturas preparadas para fallos: diseñar con redundancia, multi-AZ/multirregión y multi-cloud selectivo cuando el riesgo lo justifique.
- Plan energético y de capacidad: dimensionar crecimiento con escenarios realistas, prever picos y ajustar compromisos de compra con flexibilidad.
- Gobernanza y seguridad: proteger modelos, datos y pipelines con controles de identidad, cifrado y auditoría continua en entornos híbridos.
En resumen operativo, el movimiento de OpenAI y AWS muestra que el cuello de botella de la IA ya no es el talento ni el software, sino el acceso sostenido a hardware de alto rendimiento, energía y redes bien orquestadas. Quien logre esas tres piezas, podrá acelerar ciclos de producto y diferenciarse.
Las declaraciones públicas de las compañías apuntan en la misma dirección: hay una demanda sin precedentes de potencia informática y, para escalar modelos de vanguardia, hace falta una computación masiva y fiable. Al mismo tiempo, Microsoft conserva un papel protagonista como gran socio de OpenAI en Azure, Oracle amplía su huella de centros de datos, Google Cloud ya figura entre los que impulsan ChatGPT y CoreWeave atiende cargas de desarrolladores de IA con un acuerdo de decenas de miles de millones.
Queda por ver cómo se reparten las cargas entre plataformas y cómo evoluciona el coste real por entrenamiento e inferencia a medida que se incorporan nuevas generaciones de chips y se optimizan pilas de software. Pero el vector es claro: la diversificación de proveedores y la reserva de cómputo a largo plazo se convierten en palancas estratégicas para sostener el ritmo de innovación.
Esta alianza entre AWS y OpenAI no solo blinda capacidad para los próximos años; también confirma que la próxima fase de la IA se decidirá en los cimientos: chips, centros de datos y energía, coordinados con arquitecturas que expriman cada milisegundo. En ese terreno, asegurar acuerdos de este calibre es tanto una cuestión tecnológica como de estrategia corporativa.