CoreWeave, NVIDIA, dan IBM Menyerahkan Hasil MLPerf yang Memecahkan Rekor Menggunakan Chip Super NVIDIA GB200 Grace Blackwell
Singkatnya CoreWeave, bekerja sama dengan NVIDIA dan IBM, menyelesaikan penyerahan Pelatihan MLPerf v5.0 terbesar yang pernah ada menggunakan 2,496 GPU NVIDIA Blackwell pada platform cloud yang dioptimalkan untuk AI.
Platform cloud perangkat lunak IntiWeave mengumumkan telah berkolaborasi dengan NVIDIA dan IBM untuk menyelesaikan pengiriman Pelatihan MLPerf v5.0 terbesar hingga saat ini menggunakan teknologi NVIDIA Blackwell. Upaya tersebut memanfaatkan 2,496 GPU NVIDIA Blackwell yang beroperasi pada infrastruktur cloud CoreWeave, yang dioptimalkan untuk AI.
Benchmark ini merupakan cluster NVIDIA GB200 NVL72 terlengkap yang dievaluasi berdasarkan standar MLPerf, berukuran 34 kali lebih besar dari pengajuan terbesar berikutnya dari penyedia layanan cloud. Hasil ini menggarisbawahi skalabilitas dan kemampuan platform dalam mendukung kinerja tinggi Beban kerja AI .
Benchmark ini menghasilkan hasil yang luar biasa pada model paling canggih dan intensif sumber daya dalam rangkaian MLPerf—Llama 3.1 405B—menyelesaikan tugas pelatihan dalam waktu 27.3 menit. Ketika dievaluasi terhadap kiriman lain yang menggunakan kluster berukuran serupa, pengaturan GB200 yang dioperasikan oleh CoreWeave menunjukkan kecepatan pelatihan dua kali lebih cepat.
Performa ini mencerminkan efisiensi arsitektur GB200 NVL72 dan kemampuan infrastruktur yang mendasarinya untuk mendukung pelaksanaan tugas AI tingkat tinggi. Hasil ini memiliki implikasi praktis, karena dapat mempersingkat waktu pengembangan dan meningkatkan efisiensi biaya dalam pelatihan model.
Dengan memungkinkan durasi pelatihan yang lebih singkat dan penskalaan beban kerja yang efektif, teknologi ini berkontribusi pada penggunaan sumber daya yang optimal. Selain itu, dengan hasil terbaik di MLPerf Inference v5.0 dan Training v5.0, dan sebagai satu-satunya platform cloud di tingkat Platinum ClusterMAX milik SemiAnalysis, platform ini menunjukkan daya saing dan kemampuan yang kuat dalam penyediaan infrastruktur AI.
CoreWeave Meningkatkan Kapasitas Cloud AI dengan Kesepakatan Pusat Data Baru dan Pendanaan $375 Juta
CoreWeave beroperasi sebagai penyedia cloud hyperscale yang berfokus pada AI, menawarkan infrastruktur perangkat lunak canggih yang dirancang untuk mendukung perkembangan baru dalam AI. Platformnya memungkinkan kemampuan komputasi yang dipercepat bagi organisasi dan lembaga penelitian yang terlibat dalam aplikasi AI berkinerja tinggi.
Baru-baru ini, CoreWeave telah menandatangani dua perjanjian sewa jangka panjang dengan Applied Digital, yang menjamin kapasitas beban TI sebesar 250 megawatt di kampus pusat data yang berlokasi di Ellendale, North Dakota. 100 megawatt awal dijadwalkan mulai beroperasi pada kuartal keempat tahun 2025, dengan fasilitas tambahan sebesar 150 megawatt yang diharapkan akan diluncurkan pada pertengahan tahun 2026. Perusahaan juga mempertahankan opsi untuk memperluas kapasitasnya hingga 300 megawatt.
Menyusul perkembangan ini, sahamnya mengalami peningkatan sebesar 25%, dengan kenaikan tambahan sebesar 5% dalam perdagangan pra-pasar, menghasilkan keuntungan total sebesar 276% sepanjang tahun ini.
Dalam langkah terpisah untuk mendukung pertumbuhannya, IntiWeave telah mendapatkan pembiayaan sebesar $375 juta dari SMBC untuk membantu memajukan perluasan infrastrukturnya.
Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai
Pump.fun akan mendistribusikan pendapatan protokol kepada pemegang token PUMP: sumber
Ringkasan Cepat Pump.fun, yang dilaporkan sedang mencari dana sebesar $1 miliar melalui penawaran koin perdana, dikatakan sedang mempertimbangkan mekanisme pembagian pendapatan untuk token aslinya, menurut dua sumber yang akrab dengan masalah ini. Tim tersebut, yang pertama kali mengisyaratkan akan merilis token pada bulan Oktober, juga dilaporkan berencana untuk mendistribusikan token secara gratis.

Aethir Edge Akan Meluncurkan Tokenomics 2.0 Pada 13 Juli, Memperkenalkan Sistem Penghargaan Berkelanjutan Bagi Kontributor
Singkatnya Aethir Edge telah mengumumkan rencana untuk meluncurkan struktur bonus berbasis staking baru dalam Tokenomics 2.0 yang diperbarui, berlaku mulai 13 Juli.

Matrixport: Data Makroekonomi AS yang Lemah Dapat Memicu Volatilitas Pasar, Menghambat Momentum Kenaikan Bitcoin
Singkatnya Analisis terkini Matrixport memperingatkan bahwa melemahnya data ekonomi makro AS dan risiko pasar berkembang dapat menyebabkan meningkatnya ketidakpastian dan konsolidasi di pasar mata uang kripto, sehingga berpotensi membatasi momentum kenaikan Bitcoin.

EigenLayer Luncurkan Fitur Distribusi Ulang, Memungkinkan AVS Menggunakan Kembali dan Mendistribusikan Dana yang Dipangkas
Singkatnya EigenLayer memperkenalkan fungsionalitas pendistribusiannya kembali pada testnet Ethereum Holesky, Sepolia, dan Hoodi, dengan penyebaran mainnet diharapkan pada akhir Juni atau Juli.

Berita trending
LainnyaHarga kripto
Lainnya








