OpenAI, yapay zekâ iş yüklerini ölçeklemek için Amazon Web Services (AWS) ile yaklaşık 38 milyar ABD doları tutarında, 7 yıllık bir bulut anlaşması imzaladı. Anlaşma uyarınca OpenAI, iş yüklerini hemen AWS üzerinde çalıştırmaya başlıyor; planlanan tüm kapasitenin 2026 sonuna kadar devreye alınması ve gerektiğinde 2027 sonrası için genişleme opsiyonu bulunuyor.

Anlaşmanın kapsamı: GPU ve CPU kapasitesi

AWS, OpenAI’ye yüzbinlerce Nvidia GPU ve milyonlarca CPU’dan oluşan küresel altyapı erişimi sağlayacak. AWS’nin açıklamalarında, yeni nesil GB200/GB300 mimarilerinin bağlandığı UltraServer kümeleri üzerinde ileri ölçekli eğitim ve çıkarım (inference) iş yüklerinin çalıştırılacağı belirtiliyor.

Neden önemli? (stratejik etkiler)

  • Çoklu-bulut stratejisi: OpenAI, Microsoft Azure ile yakın bağını sürdürürken (farklı sözleşmeler mevcut), kapasiteyi çeşitlendirmek için AWS üzerinde de çalışacak; bu, “tek sağlayıcıya bağımlılığı” azaltıyor.
  • Hız ve ölçek: “Güvenilir, devasa hesaplama” ihtiyacı; frontier modelleri eğitmek/işletmek için kritik. Sam Altman, AWS iş birliğinin “bir sonraki AI çağı” için gerekli ekosistemi güçlendirdiğini vurguluyor.
  • AWS için işareti: Anlaşma, AWS’nin AI altyapısındaki rekabet gücünü yeniden öne çıkaran bir onay niteliğinde görülüyor.

Zamanlama ve teslimatlar

OpenAI, AWS altyapısını hemen kullanmaya başlıyor; planlanan kapasitenin 2026 bitmeden yayına girmesi; 2027+ için ek ölçeklendirme seçeneği belirtiliyor. Bu takvim, kısa vadede inference kapasitesini, orta vadede ise büyük eğitim turları için gereken uzun süreli GPU bloklarını mümkün kılıyor.

Ek notlar ve bağlam

  • Resmî duyurular: AWS ve OpenAI, çok yıllı ortaklığı eş zamanlı basın/duyuru sayfalarında paylaştı; “38B commitment” ibaresi doğrudan AWS kurumsal içeriklerinde geçiyor.
  • Endüstri yansımaları: Guardian ve diğer yayınlar, bu anlaşmayı 1 trilyon doların üzerindeki küresel AI altyapı harcama dalgasının parçası olarak konumlandırıyor.

MakTechHub değerlendirmesi

38 milyar dolarlık çok yıllı kapasite taahhüdü, maliyet ve tedarik belirsizliklerinin arttığı bir dönemde OpenAI’nin ölçek riskini azaltıyor. Aynı zamanda, GPU tedarik zinciri kısıtlarında iki büyük bulut sağlayıcıyla paralel çalışmak, yeni model sürümlerinin (ör. çok modlu/ajanik sistemler) daha hızlı saha almasına imkân verebilir. İş yüklerinin parçalara bölünmesi (eğitim/inference ayrımı) ve veri/uyumluluk konfigürasyonları, bu geçişin başarı metriği olacak.

MakTechHub – Yapay zekânın medyayı, güvenliği ve gerçeği yeniden tanımladığı bir dönemi takip etmeye devam ediyoruz.