Skip to main content

OpenAI e AWS, l’accordo pluriennale da 38 miliardi.

OpenAI e Amazon Web Services (AWS) hanno annunciato una partnership pluriennale dal valore di 38 miliardi di dollari per eseguire e scalare i carichi di lavoro di intelligenza artificiale di OpenAI sull’infrastruttura cloud di Amazon. L’avvio è immediato, con l’obiettivo di dispiegare tutta la capacità prevista entro la fine del 2026 e prevedere ulteriore espansione nel 2027 e oltre. L’intesa ha una durata di sette anni.

Che cosa prevede l’intesa

  • Accesso immediato all’infrastruttura AWS per i carichi di lavoro chiave di OpenAI, dai servizi in produzione (ad esempio ChatGPT) all’addestramento di modelli di nuova generazione.
    About Amazon
  • Utilizzo di Amazon EC2 UltraServers con centinaia di migliaia di GPU NVIDIA (famiglie GB200 e GB300), oltre alla possibilità di scalare fino a decine di milioni di CPU per i carichi agentici e di supporto.
    About Amazon
  • Cluster a bassa latenza progettati per massimizzare efficienza e prestazioni, idonei sia all’inference sia al training dei modelli.

Tempistiche principali

  • Partenza: subito, con accesso operativo alle risorse AWS.
  • Obiettivo: capacità contrattualizzata disponibile entro il 31 dicembre 2026 circa.
  • Orizzonte: possibilità di scalare ulteriormente nel 2027+ sulla base della domanda.

L’infrastruttura in breve

La fornitura comprende cluster di GPU NVIDIA GB200 e GB300 interconnessi sulla stessa rete tramite EC2 UltraServers, per minimizzare la latenza tra i nodi e sostenere sia i picchi di richiesta sia gli addestramenti su larga scala. L’accordo menziona inoltre la possibilità di espansione a decine di milioni di CPU, utili per orchestrazione, preprocessing e carichi di supporto.

Il contesto, capacità in forte crescita

Nel corso delle comunicazioni finanziarie del terzo trimestre 2025, Amazon ha evidenziato che AWS opera oggi con una capacità di potenza doppia rispetto al 2022 e punta a raddoppiare nuovamente entro il 2027. La società ha aggiunto oltre 3,8 GW nell’ultimo anno, accelerando l’arrivo di potenza, data center e chip (inclusi Trainium e NVIDIA) per sostenere la domanda AI.

Ambiti d’uso previsti

  • Servizi di produzione: erogazione dell’inference per applicazioni come ChatGPT, con obiettivi di maggiore disponibilità e tempi di risposta costanti.
  • Ricerca e sviluppo: addestramento di modelli di nuova generazione, con flessibilità per adattarsi all’evoluzione dei requisiti computazionali.

Un tassello nella strategia multi-cloud

L’intesa con AWS si inserisce in un quadro in cui OpenAI diversifica i fornitori per garantire disponibilità di calcolo, scala e continuità operativa. Secondo le principali agenzie, l’accordo con AWS prevede immediata utilizzabilità delle risorse e una rampa di crescita fino a fine 2026, con estensione potenziale nel 2027.