Bisnis.com, JAKARTA — CEO NVIDIA Jensen Huang mengatakan perkembangan kecerdasan buatan (AI) yang masif membutuhkan dukungan sistem komputasi awan (cloud) yang lebih mumpuni, sehingga inferensi dapat dihadirkan lebih cepat.
Inferensi AI adalah proses di mana model AI yang telah dilatih menggunakan pengetahuan yang diperoleh untuk membuat prediksi, kesimpulan, atau keputusan berdasarkan data baru yang belum pernah dilihat sebelumnya. Makin cepat, maka pengalaman yang dirasakan pelanggan makin baik.
“Inferensi telah menjadi fase AI yang membutuhkan komputasi paling intensif—yang membutuhkan penalaran secara real-time dalam skala global,” kata Jensen, dikutip Rabu (5/11/2025).
Jensen menuturkan NVIDIA bersama dengan Akamai kemudian menghadirkan sistem komputasi dan memindahkan inferensi lebih dekat ke pengguna di mana saja. Langkah ini bertujuan menghadirkan generative AI yang lebih cepat dan lebih skalabel serta mendorong lahirnya aplikasi-aplikasi cerdas generasi berikutnya. Fase baru ini segera hadir.
NVIDIA dan Akamai menggabungkan Server NVIDIA RTX PRO dengan GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, DPU NVIDIA BlueField-3, dan perangkat lunak NVIDIA AI Enterprise, bersama infrastruktur komputasi cloud terdistribusi dan jaringan edge global Akamai yang mencakup lebih dari 4.200 lokasi. Kerja sama itu melahirkan platform komputasi awan baru
Akamai Cloud Inference memungkinkan inferensi agentic AI cerdas di edge, yang dekat dengan pengguna dan perangkat. Berbeda dengan sistem konvensional, platform ini dirancang khusus untuk menyediakan pemrosesan edge AI berlatensi rendah secara real time dalam skala global.
Akamai Cloud Inference memanfaatkan keahlian Akamai dalam arsitektur terdistribusi global dan infrastruktur NVIDIA Blackwell AI untuk secara radikal mentransformasi dan memperluas komputasi yang dipercepat untuk kebutuhan memaksimalkan potensi AI yang sesungguhnya.
Aplikasi AI generasi terbaru, mulai dari pengalaman digital yang dipersonalisasi dan smart agent hingga sistem pengambilan keputusan secara real time, menuntut agar inferensi dijalankan lebih dekat dengan pengguna, sehingga respons dapat diberikan dengan sangat cepat dan rute permintaan dapat ditentukan secara cerdas.
Beban kerja berbasis agen semakin membutuhkan inferensi berlatensi rendah, konteks lokal, dan kemampuan peningkatan skalabilitas global yang cepat. Untuk menjawab kebutuhan tersebut, Akamai Cloud Inference dihadirkan sebagai platform edge generatif terdistribusi yang menempatkan arsitektur AI NVIDIA lebih dekat dengan tempat data dihasilkan dan keputusan dibuat.
“Dengan dukungan infrastruktur AI NVIDIA, Akamai Inference Cloud akan memperluas inferensi AI ke ribuan lokasi di seluruh dunia seiring pertumbuhan permintaan,” kata Chief Executive Officer Akamai Tom Leighton.
Tom mengatakan Akamai Cloud Inference mengatur beban kerja AI terdistribusi yang kompleks di berbagai wilayah cloud memerlukan keahlian dan tim khusus.
Lapisan orkestrasi cerdas Akamai Cloud Inference secara otomatis merutekan tugas AI ke lokasi yang paling optimal— sehingga inferensi rutin dijalankan langsung di edge melalui layanan mikro NVIDIA NIM, sementara penalaran yang lebih kompleks diproses di AI Factories terpusat, semuanya dikelola melalui satu platform terpadu yang menyederhanakan kompleksitas infrastruktur.
