
Sebagai hyperscaler dan lainnya pusat data operator mempercepat upaya untuk memberikan kapasitas yang dibutuhkan untuk generatif AI dan pelatihan model berskala besar, memodernisasi pusat data untuk teknologi GPU terbaru telah menjadi tantangan yang menentukan.
Peralihan ke akselerator yang sangat canggih menuntut peningkatan radikal dalam hal daya, pendinginan, dan konektivitas berkecepatan tinggi. Apa yang pernah dianggap mutakhir bahkan beberapa tahun yang lalu tidak lagi cukup untuk mendukung beban kerja AI saat ini, sehingga memaksa operator untuk memikirkan kembali segala hal mulai dari desain rak hingga strategi termal.
Direktur Pusat Data di Onnec.
Skala investasi global mencerminkan poros ini. McKinsey memperkirakan pengeluaran pusat data akan mencapai $6,7 triliun pada tahun 2030, dan sebagian besar disalurkan ke fasilitas yang dirancang khusus untuk AI.
Namun ekspansi industri yang pesat telah menghadapi kendala besar: hambatan rantai pasokan untuk GPU dan interkoneksi, keterbatasan desain yang membatasi kepadatan, dan kekurangan insinyur terampil yang mampu mendukung pembangunan kompleks.
Tekanan-tekanan ini telah membantu mendorong munculnya penyedia “neocloud” yang bisnis model sepenuhnya berkisar pada komputasi GPU berkinerja tinggi.
Lonjakan neocloud
Neoclouds telah menjadi salah satu kekuatan paling dinamis yang membentuk kembali infrastruktur pusat data. Tidak seperti operator tradisional, yang harus menyeimbangkan kapasitas AI dengan kebutuhan cloud yang lebih luas, perusahaan-perusahaan ini merancang segalanya GPU percepatan.
Dengan permintaan terhadap AI generatif yang tumbuh lebih cepat dibandingkan peningkatan kemampuan pusat data yang ada, neocloud menangkap momentum dengan menerapkan kecepatan luar biasa dan menawarkan komputasi berkinerja tinggi dengan harga bersaing.
Skala dan ambisi proyek-proyek ini belum pernah terjadi sebelumnya. CoreWeave, misalnya, telah berkembang pesat dari penerapan sederhana menjadi puluhan ribu GPU per build, dilengkapi dengan peluncuran NVIDIAsistem GB300 NVL72.
Peningkatan kinerjanya sangat dramatis, daya tanggap hingga sepuluh kali lebih besar, dan peningkatan efisiensi energi yang signifikan dibandingkan generasi sebelumnya. Sementara itu, fasilitas NScale berkapasitas 230 megawatt di Norwegia bertujuan untuk menghasilkan 100.000 GPU pada tahun 2026, yang seluruhnya didukung oleh energi terbarukan.
Nebius menggarisbawahi skala selera pasar dengan GPU bernilai miliaran dolar infrastruktur persetujuan dengan Microsoftkesepakatan yang langsung mengubah posisi pasarnya.
Motivasinya lebih dari sekedar perlombaan teknis untuk mendapatkan kapasitas. Banyak negara semakin memandang infrastruktur AI sebagai pilar daya saing jangka panjang. Negara-negara yang mampu melakukan penempatan dengan cepat akan mampu menarik investasi dan talenta. Mereka yang bergerak terlalu lambat berisiko melihat peluang yang ada di tempat lain.
Kemacetan rekayasa
Membangun infrastruktur yang mendukung AI memperlihatkan keterbatasan fasilitas yang baru saja dibangun. Persyaratan kepadatan daya meningkat tajam, sementara kendala pendinginan dan bandwidth sering kali menuntut desain ulang secara besar-besaran.
Banyak operator menghadapi kenyataan yang tidak menyenangkan bahwa retrofit mungkin lebih mahal atau lebih mengganggu dari yang diperkirakan, sehingga mengakibatkan tertundanya proyek atau dibatalkannya perluasan.
Pergeseran yang paling signifikan adalah peralihan dari sistem pendingin udara tradisional ke berbagai bentuk pendingin cair, khususnya direct-to-chip.
Sistem ini memungkinkan cluster GPU yang padat untuk beroperasi dalam batas termal yang dapat diterima, namun memerlukan pertimbangan fasilitas yang benar-benar baru seperti distribusi cairan dan pengendalian integrasi daya dan protokol keselamatan.
Konektivitas menghadirkan tantangan penting lainnya. Beban kerja AI bergantung pada arus lalu lintas timur-barat yang besar antar GPU, sehingga mendorong teknologi interkoneksi seperti InfiniBand dan teknologi canggih. serat optik sampai batasnya.
Pasokan komponen-komponen ini masih terbatas secara global, sementara pemasangannya sendiri memerlukan keahlian khusus dan koordinasi yang cermat. Bahan GPU yang padat hanya sekuat kabel yang menopangnya; penerapan yang dirancang dengan buruk atau murah dengan cepat menjadi titik hambatan kinerja.
Lonjakan kompleksitas ini juga terjadi pada kebutuhan tenaga kerja. Pembangunan pusat data AI secara rutin memerlukan tenaga kerja yang berkali-kali lipat dibandingkan proyek konvensional, dan sering kali melibatkan tim dengan keahlian khusus dalam bidang fiber, listrik, dan pendinginan.
Mengkoordinasikan disiplin-disiplin ini sambil menjaga kecepatan, kualitas, dan keselamatan telah menjadi tantangan operasional yang menentukan di era AI.
Mengapa mitra yang tepat itu penting
Itu sebabnya operator pusat data semakin beralih ke mitra tepercaya yang mampu memberikan kedalaman teknis, pengalaman global, dan skala operasional. Tidak ada satu pun operator, berapa pun ukurannya, yang dapat memikul seluruh beban proyek AI sendirian.
Mitra yang kuat membantu menjembatani kesenjangan di bidang teknik, logistik, kepatuhan, dan mobilisasi tenaga kerja, sehingga memungkinkan operator bergerak cepat tanpa mengorbankan kualitas atau ketahanan.
Mitra-mitra ini berkontribusi dalam beberapa cara penting. Keakraban mereka dengan arsitektur kabel berdensitas tinggi, solusi pendinginan canggih, dan integrasi cluster GPU memungkinkan mereka merancang dan melaksanakan peningkatan yang sesuai dengan tuntutan sistem AI generasi berikutnya.
Mereka juga membantu menavigasi peraturan setempat dan lingkungan perizinan, memitigasi risiko yang dapat menghentikan atau menunda pembangunan. Di sisi operasional, mereka dapat memobilisasi tim yang besar dan terampil dengan cepat.
Hal ini berarti pengadaan, pelatihan, dan koordinasi insinyur sambil memastikan kesehatan dan keselamatan, serta kendali mutu tetap kuat dalam jangka waktu yang dipercepat.
Singkatnya, kemampuan untuk memanfaatkan mitra dengan kemampuan teknis yang mendalam dan model penyampaian yang tangkas dapat menjadi pembeda antara desain ambisius di atas kertas dan AI yang berfungsi. data pusat siap untuk beban kerja komersial.
Memenangkan perlombaan infrastruktur
Perlombaan untuk membangun pusat data yang mendukung AI bukan lagi tentang penerapan GPU terbaru. Ini adalah ujian koordinasi antara teknologi, regulasi, tenaga kerja, dan rantai pasokan. Operator yang menggabungkan kepemimpinan internal yang kuat dengan kemitraan eksternal yang tepat akan berada pada posisi terbaik untuk menghadirkan kapasitas secara online dengan cepat dan andal.
Karena permintaan global akan komputasi GPU terus melampaui pasokannya, perusahaan-perusahaan yang mampu menghadirkan infrastruktur canggih dengan cepat akan mendapatkan keunggulan kompetitif yang menentukan. Di era baru AI hiperskala ini, kolaborasi dan kemampuan akan menentukan siapa yang memimpin.
Kami telah menampilkan alat migrasi data terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



