
Amazon e OpenAI fecham um pacto de sete anos: AWS vai fornecer capacidade com NVIDIA GB200 & GB300 em um acordo de US$ 38 bilhões
A corrida por chips de IA acaba de ganhar um novo capítulo com sotaque brasileiro de “gigantes se entendendo”. OpenAI e Amazon anunciaram um acordo plurianual – avaliado em cerca de US$ 38 bilhões ao longo de sete anos – para tornar a AWS um dos principais provedores de computação da casa do ChatGPT. Na prática, a nuvem da Amazon reservará pools dedicados de servidores baseados em NVIDIA, incluindo as plataformas GB200 e GB300, para treinar e operar os próximos modelos. O cronograma prevê que a capacidade planejada esteja instalada e utilizável até o fim de 2026, criando uma pista longa e previsível para a agenda de P&D da OpenAI.
Por que a AWS? Porque confiabilidade e escala contam. A Amazon opera clusters com centenas de milhares de aceleradores, com processos maduros de segurança, rede, resfriamento e orquestração. Em um serviço de massa como o ChatGPT, cada ponto de latência e cada minuto de indisponibilidade pesa. Para a OpenAI, ancorar parte relevante do seu consumo na AWS significa reduzir incertezas em um mercado onde conseguir GPU de ponta virou esporte de alto risco.
O detalhe que chama atenção: NVIDIA no centro, não o Trainium
Entre as linhas, o acordo reforça um movimento pragmático: nada de promessas sobre Trainium, o chip próprio da Amazon; o foco declarado é no ecossistema da NVIDIA. GB200 e GB300 trazem não só performance, mas também um stack de software amadurecido ao longo de anos – drivers, bibliotecas, compilers e um universo de devs já acostumado. Quando o relógio corre, escolher a plataforma mais provada reduz atritos e acelera a chegada de modelos ao mundo real.
Sete anos em IA parecem uma eternidade – e é por isso que há marcos
Em um setor que muda de trimestre em trimestre, um horizonte de sete anos soa ousado. Justamente por isso existe um plano faseado: até 2026, a infraestrutura crítica precisa estar de pé, enquanto o restante do período acomoda novas gerações de hardware, otimizações de software e, principalmente, a logística de energia e refrigeração que acompanha cada megawatt de datacenter. Esse escalonamento dá a ambas as empresas pontos de checagem para ajustar custos, densidade e eficiência sem perder o compasso.
O tabuleiro mais amplo: múltiplos fornecedores, múltiplas nuvens
O acordo com a AWS não nasce no vazio. Nas últimas semanas, a OpenAI costurou entendimentos com NVIDIA e AMD do lado do silício, aprofundou laços com a Microsoft, e manteve conversas com Broadcom e Oracle – um mosaico que sinaliza estratégia de multiforncedor e multicloud. Em uma fase de possível abertura de capital comentada de longe, garantir acesso a capacidade premium vira prioridade tão estratégica quanto lançar o próximo modelo.
Bull vs. bear: hype, conta de luz e empregos
Nem todo mundo está em clima de euforia. Há quem leia o momento como típico pico de hype: teleconferências recheadas de promessas, investimentos colossais antes da captura integral de receita e preocupações bem concretas com energia. O custo da eletricidade e o impacto ambiental dos novos parques computacionais entram na planilha. Do outro lado, a tese de que “mesmo sem hype, a automação avança” mantém força: empresas continuarão usando IA para reduzir custos e encurtar ciclos, o que sustenta a ocupação dos clusters já existentes – ainda que o ritmo de novas construções arrefeça.
Competição e rumo de plataforma
Para a NVIDIA, o symbolism é direto: mais um grande cliente ancorando a próxima geração de data centers no seu roadmap. Para a AMD, o recado é misto: a empresa evolui rápido e o software melhora, mas acordos desse porte mostram como é difícil desalojar um padrão dominante quando time-to-train e familiaridade do ecossistema pesam. E, no horizonte, surgem conversas sobre “omniverse” conectado, simulações persistentes e colaboração em tempo real – espaços onde players como Meta também querem ditar as regras. Um acordo de sete anos deixa espaço para surpresas, inclusive para chips customizados, mas por ora o caminho é nítido: NVIDIA no volante.
O que acompanhar até o fim de 2026
- Marcos de capacidade: velocidade de entrega dos clusters GB200/GB300 na AWS e o ritmo de consumo pela OpenAI.
- Cadência de modelos: se veremos saltos qualitativos além de janelas de contexto maiores e otimizações de inferência.
- Economia unidade a unidade: relação entre custo de treino, margem de inferência e ganhos de eficiência de hardware/software.
- Energia e localização: onde os parques serão instalados, como serão alimentados e resfriados – e como isso conversa com metas ESG.
- Mistura de aceleradores: eventual entrada de Trainium ou outros chips e o que isso dirá sobre portabilidade e maturidade do toolchain.
No fim, o pacto AWS–OpenAI é ao mesmo tempo pé no chão e ambição: garante acesso a um recurso escasso e dobra a aposta em uma pilha tecnológica que hoje entrega. Para quem acredita, é o alicerce para sair do “texto que completa” rumo a sistemas que colaboram de verdade. Para quem duvida, é mais um lance caro em um tabuleiro onde a receita pode demorar a acompanhar. O relógio, entretanto, está marcado: até o fim de 2026, a infraestrutura precisa estar jogando. E o que a OpenAI fizer com ela deve definir a década.
2 comentários
A real é a conta de luz. Chip a gente arruma; megawatt não cresce em árvore. 😬
Mesmo se o hype murchar, os DCs ficam. Para de construir novo e espreme o que já tem