Bisnis.com, JAKARTA– DeepSeek memperkenalkan model eksperimental baru bernama V3.2-exp yang dirancang untuk menekan biaya inferensi yang jauh lebih rendah saat digunakan dalam operasi konteks panjang.
Pengumuman tersebut disampaikan melalui unggahan di Hugging Face, lengkap dengan tautan menuju makalah akademis di GitHub.
Melansir laman TechCrunch Selasa (30/9/2025) fitur utama dalam model baru ini disebut DeepSeek Sparse Attention.
Mekanismenya cukup unik sistem menggunakan modul bernama lightning indexer untuk memprioritaskan bagian-bagian tertentu dari jendela konteks.
Setelah itu, ada sistem lain bernama fine-grained token selection yang memilih token paling relevan dari potongan tersebut untuk dimasukkan ke jendela perhatian model yang terbatas.
Dengan cara ini, model tetap bisa menangani konteks panjang tanpa membebani server terlalu besar. Berdasarkan uji awal, biaya panggilan API untuk operasi dengan konteks panjang bisa ditekan hingga 50%.
Meski begitu, pengujian lanjutan masih diperlukan untuk memastikan klaim tersebut. Karena model ini bersifat open weight dan tersedia gratis di Hugging Face, uji coba independen dari pihak ketiga diperkirakan segera menyusul.
Riset terbaru DeepSeek ini menambah deretan inovasi yang berfokus pada pengurangan biaya inference yaitu biaya menjalankan model AI yang sudah dilatih, berbeda dengan biaya melatihnya.
Upaya ini berangkat dari kebutuhan agar arsitektur transformer bisa bekerja lebih efisien. DeepSeek, perusahaan berbasis di Tiongkok, dikenal sebagai pemain unik di tengah persaingan riset AI global.
Pada awal 2025, mereka sempat mencuri perhatian lewat model R1 yang dilatih terutama dengan reinforcement learning dengan biaya lebih rendah dibanding pesaing dari Amerika Serikat. Namun, gaungnya meredup setelah R1 tidak memicu perubahan besar seperti yang sempat diprediksi.
Meski mungkin tidak menimbulkan kehebohan sebesar R1, pendekatan baru berbasis “sparse attention” ini diyakini tetap dapat memberikan pelajaran penting bagi penyedia AI di AS dalam menjaga biaya operasi tetap rendah.