Oleh Vlad Savov, Ian King dan Jane Lanhee Lee, Bloomberg
Chief Executive Officer Nvidia Corp. Jensen Huang menguraikan rencana untuk membiarkan pelanggan mengerahkan chip rival di pusat data yang dibangun di sekitar teknologinya, sebuah langkah yang mengakui pertumbuhan pengembangan semikonduktor in-house oleh klien utama dari Microsoft Corp. ke Amazon.com Inc.
Huang pada hari Senin memulai Computex di Taiwan, forum elektronik terbesar di Asia, mendedikasikan sebagian besar presentasi hampir dua jam untuk merayakan karya mitra rantai pasokan lokal. Tetapi pengumuman utamanya adalah sistem fusi NVLink baru yang memungkinkan pembangunan infrastruktur kecerdasan buatan yang lebih disesuaikan, menggabungkan tautan berkecepatan tinggi NVIDIA dengan semikonduktor dari penyedia lain untuk pertama kalinya.
Sampai saat ini, NVIDIA hanya menawarkan sistem komputer lengkap yang dibangun dengan komponennya sendiri. Pembukaan ini memberi pelanggan pusat data lebih banyak fleksibilitas dan memungkinkan ukuran persaingan, sambil tetap menjaga teknologi NVIDIA di pusat tersebut. NVLink Fusion Products akan memberi pelanggan opsi untuk menggunakan unit pemrosesan pusat mereka sendiri dengan chip AI NVIDIA, atau Twin Nvidia Silicon dengan akselerator AI perusahaan lain.
Nvidia yang berbasis di Santa Clara, California ingin menopang tempatnya di jantung booming AI, pada saat investor dan beberapa eksekutif menyatakan ketidakpastian apakah pengeluaran untuk pusat data berkelanjutan. Industri teknologi juga menghadapi pertanyaan mendalam tentang bagaimana rezim tarif administrasi Trump akan mengguncang permintaan dan manufaktur global.
“Ini memberi kesempatan bagi hiperscaler untuk membangun silikon khusus dengan nvlink bawaan. Apakah mereka melakukannya atau tidak akan bergantung pada jika Hyperscaler percaya NVIDIA akan berada di sini selamanya dan menjadi Keystone,” kata Ian Cutress, kepala analis di perusahaan riset lebih dari Moore. “Aku bisa melihat orang lain menghindari itu sehingga mereka tidak jatuh ke dalam ekosistem Nvidia lebih sulit daripada yang seharusnya.”
Terlepas dari pembukaan pusat data, Huang pada hari Senin menyentuh serangkaian peningkatan produk dari perangkat lunak yang lebih cepat ke pengaturan chipset yang dimaksudkan untuk mempercepat layanan AI. Itu kontras dengan edisi 2024, ketika CEO NVIDIA meluncurkan platform Rubin dan Blackwell generasi berikutnya, memberi energi pada sektor teknologi kemudian mencari cara untuk mengendarai booming AI pasca-chatgpt. Nvidia meluncur lebih dari 3% dalam perdagangan pra-pasar, mencerminkan penjualan teknologi yang lebih luas.
Pada hari Senin, saham dalam dua mitra Asia paling penting perusahaan, Taiwan Semiconductor Manufacturing Co. dan Hon Hai Precision Industry Co., turun lebih dari 1% dalam cerminan kelemahan pasar yang lebih luas.
Huang membuka Computex dengan pembaruan waktu untuk sistem GB300 generasi NVIDIA berikutnya, yang katanya datang pada kuartal ketiga tahun ini. Mereka akan menandai peningkatan pada sistem Grace Blackwell top-of-the-line saat ini, yang sekarang sedang diinstal oleh penyedia layanan cloud.
Apa yang dikatakan Bloomberg Intelligence
Kesiapan ramp-up server GB300 dalam 2H akan menjadi fokus utama. Kami pikir Outlook permintaan server AI yang lebih luas juga akan menghadapi pengawasan di tengah ketidakpastian ekonomi dan geopolitik yang sedang berlangsung.
– Steven Tseng, analis
Di Computex, Huang juga memperkenalkan sistem server RTX Pro baru, yang katanya menawarkan kinerja empat kali lebih baik daripada sistem H100 AI bekas NVIDIA dengan beban kerja Deepseek. Server RTX Pro juga 1,7 kali lebih baik dengan beberapa pekerjaan model LLAMA Meta Platforms Inc.. Produk baru itu sedang dalam produksi volume sekarang, kata Huang.
Pada hari Senin, ia memastikan untuk berterima kasih kepada sejumlah pemasok dari TSMC ke Foxconn yang membantu membangun dan mendistribusikan teknologi Nvidia di seluruh dunia. Nvidia akan bermitra dengan mereka dan pemerintah Taiwan untuk membangun superkomputer AI untuk pulau itu, kata Huang. Ini juga akan membangun kompleks kantor baru yang besar di Taipei.
“Ketika pasar baru harus dibuat, mereka harus dibuat mulai di sini, di pusat ekosistem komputer,” Huang, 62, mengatakan tentang pulau asalnya.
Sementara NVIDIA tetap menjadi pemimpin yang jelas dalam chip AI paling canggih, pesaing dan mitra sama-sama berlomba untuk mengembangkan semikonduktor mereka sendiri yang sebanding, apakah akan mendapatkan pangsa pasar atau memperluas kisaran calon pemasok untuk komponen margin tinggi yang mahal ini. Pelanggan utama seperti Microsoft dan Amazon mencoba merancang bagian yang dipesan lebih dahulu, dan bahwa risiko membuat NVIDIA kurang penting bagi pusat data.
Langkah untuk membuka ekosistem NVIDIA AI Server hadir dengan beberapa mitra yang sudah mendaftar. MediaTek Inc., Marvell Technology Inc. dan Alchip Technologies Ltd. akan membuat chip AI khusus yang bekerja dengan perlengkapan berbasis prosesor NVIDIA, kata Huang. Qualcomm Inc. dan Fujitsu Ltd. berencana untuk membuat prosesor khusus yang akan bekerja dengan akselerator NVIDIA di komputer.
Komputer skala kecil NVIDIA-DGX Spark dan DGX Station, yang diumumkan tahun ini-akan ditawarkan oleh berbagai pemasok yang lebih luas. Mitra lokal Acer Inc., Gigabyte Technology Co. dan lainnya bergabung dengan daftar perusahaan yang menawarkan perangkat portabel dan desktop mulai musim panas ini, kata Nvidia. Kelompok itu sudah termasuk Dell Technologies Inc. dan HP Inc.
Perusahaan juga membahas perangkat lunak baru untuk robot yang akan membantu melatih skenario simulasi mereka dengan lebih cepat. Huang berbicara tentang potensi dan pertumbuhan robot humanoid yang cepat, yang ia lihat sebagai jalan yang paling menarik untuk apa yang disebut AI fisik.
Nvidia mengatakan pihaknya menawarkan cetak biru terperinci yang akan membantu mempercepat proses membangun “pabrik AI” oleh perusahaan. Ini akan memberikan layanan untuk memungkinkan perusahaan yang tidak memiliki keahlian in-house dalam proses multistep membangun pusat data AI mereka sendiri untuk melakukannya.
Perusahaan juga memperkenalkan perangkat lunak baru yang disebut DGX Cloud Lepton. Ini akan bertindak sebagai layanan untuk membantu penyedia komputasi awan, seperti Coreweave Inc. dan Softbank Group Corp, mengotomatiskan proses menghubungkan pengembang AI dengan komputer yang mereka butuhkan untuk membuat dan menjalankan layanan mereka.
–Dengan bantuan dari Debby Wu dan Nick Turner.
Lebih banyak cerita seperti ini tersedia Bloomberg.com
© 2025 Bloomberg LP
Awalnya diterbitkan: