OPINI: Melampaui Pusat Data, Mengapa Komputasi AI di Indonesia Harus Terdistribusi? – Page 3

OPINI: Melampaui Pusat Data, Mengapa Komputasi AI di Indonesia Harus Terdistribusi? – Page 3

PC saat ini sedang berada di titik balik dengan kehadiran AI PC. Dengan kombinasi CPU, GPU dan Neural Processing Unit (NPU) – produktivitas, kreativitas, gaming dan banyak lagi, kini bisa ditingkatkan dengan AI secara lokal dengan efisiensi yang luar biasa.

Jadi bayangkan bagaimana beberapa baris instruksi di PowerPoint bisa membantu membuat presentasi dengan visual yang menakjubkan hanya dalam beberapa detik.

Beberapa mungkin mengatakan bahwa mereka sudah melakukan hal tersebut melalui browser di laptop yang sudah berusia tiga tahun. Hal itu mungkin saja bisa, namun PC yang lebih tua butuh waktu lebih lama untuk memproses, mengonsumsi energi lebih besar, memakan biaya yang lebih tinggi untuk mengirimkan data bolak balik antara cloud dan PC, dan hal ini akan jadi rumit ketika Anda sedang menangani data sensitif yang tidak bisa meninggalkan lokasi atau negara Anda.

Masalah-masalah ini menjadi semakin besar dalam lingkungan enterprise. Semakin banyak karyawan menggunakan aplikasi AI dalam pekerjaan mereka sehari-hari; semakin banyak perusahaan yang harus melatih atau menyempurnakan model AI mereka dengan proprietary data; dan perhatikan bahwa banyak software enterprise seperti aplikasi manajemen database memiliki model lisensi yang membebankan biaya kepada perusahaan berdasarkan jumlah core dari CPU di cloud yang digunakan untuk menjalankan aplikasi tersebut.

Dengan AI PC, perangkat-perangkat ini dapat mengoptimalkan jalannya beban kerja AI, sehingga pemanfaatan sumber daya hardware menjadi lebih baik.

Bayangkan betapa jauh lebih cepat dan lebih hemat biaya jika perusahaan dapat menjalankan banyak aplikasi AI ini langsung di PC karyawan, tanpa harus terus-terusan membayar biaya untuk komputasi cloud. Potensi pengurangan biaya operasional, peningkatan efisiensi, dan produktivitas dapat menghasilkan manfaat bisnis yang signifikan dari waktu ke waktu.

Memiliki ‘Edge’ di Era AI

Selain pusat data dan AI PC, semakin banyak AI akan pindah ke “edge”. Edge tersebut meliputi pengaplikasian Internet of Things (IoT), kendaraan otonom, dan perangkat untuk kota cerdas, yang akan melengkapi pengalaman AI sehari-hari.

Komputasi untuk edge tersebut membutuhkan pemrosesan data ‘di sekeliling’ atau di edge suatu jaringan, lebih dekat dengan lokasi di mana data dihasilkan, alih-alih mengandalkan pusat data yang tersentralisasi.

Kebutuhan akan komputasi edge sangat penting di era AI. Pertama, ia memungkinkan pemrosesan sesuatu yang sangat penting secara real-time ketika keputusan dalam sekian detik bisa memberikan dampak terhadap keselamatan, seperti automasi di industri.

Untuk yang lain, memproses data secara lokal akan menurunkan volume data yang dikirimkan ke cloud, yang akan mengurangi ‘kemacetan’ dalam jaringan, memangkas biaya transfer data, dan meningkatkan keamanan dengan meminimalkan paparan data sensitif selama transmisi.

Terakhir, saat koneksi internet mengalami gangguan, komputasi edge akan memastikan aplikasi-aplikasi yang penting dapat terus berfungsi – sangat vital bagi industri layanan kesehatan.

Kasus-kasus penggunaan AI yang memanfaatkan model machine learning terlatih untuk membuat prediksi atau keputusan berdasarkan input data baru yang disebut inferencing.

Berbeda dengan pelatihan, yang seringkali membutuhkan infrastruktur komputasi yang lebih demanding untuk mendukungnya, inferencing bisa dengan lebih mudah dilakukan di edge melalui server komputasi umum, dengan hardware yang sudah dikenal, konsumsi daya yang lebih rendah, dan fleksibilitas yang menjadi keunggulannya untuk bertahan di lingkungan yang berbeda.

Faktanya, IDC memperkirakan bahwa pada tahun 2025, sebanyak 75% data yang dihasilkan oleh enterprise di dunia tidak akan dihasilkan dan diproses di pusat data tradisional atau cloud, melainkan di edge.

Penting untuk diketahui bahwa tidak hanya akan ada lebih banyak AI dan komputasi di edge, beban kerja yang utama juga akan mengalami proses inferencing.

Pikirkan berapa banyak orang yang “membangun” model cuaca versus berapa banyak orang yang “menggunakan” model cuaca. Ini adalah pelatihan versus inferencing, dan yang terakhir akan mengambil alih beban kerja AI dalam jumlah besar di masa yang akan datang. Mengetahui hal ini akan membantu perusahaan-perusahaan mempersiapkan infrastruktur komputasi yang tepat di masa depan.