OpenAI Akui Keamanan ChatGPT Atlas Masih Sangat Rentan dari Serangan Siber

OpenAI Akui Keamanan ChatGPT Atlas Masih Sangat Rentan dari Serangan Siber

Bisnis.com, JAKARTA — Perusahaan riset kecerdasan artifisial (AI) yang menciptakan ChatGPT, OpenAI, mengakui peramban web berbasis AI milik mereka rentan terhadap risiko serangan prompt injection. 

OpenAI menilai bahwa serangan prompt injection terhadap browser ChatGPT Atlas merupakan ancaman yang tidak akan hilang dalam waktu dekat.

Sebagai informasi, prompt injection merupakan jenis serangan yang memanipulasi agen AI agar mengikuti instruksi berbahaya yang seringkali disembunyikan di dalam halaman situs web atau pesan email.

Melansir dari unggahan blog resminya Rabu (24/12//2025), OpenAI menyatakan bahwa tantangan ini serupa dengan skema penipuan dan rekayasa sosial yang ada di internet.

Startup AI dengan valuasi Rp 8.305 triliun per Oktober 2025 ini mengakui bahwa fitur “agent mode” dalam ChatGPT Atlas justru memperluas ancaman keamanan siber bagi pengguna.

“Prompt injection adalah tantangan keamanan AI jangka panjang, dan kami perlu terus memperkuat pertahanan kami terhadapnya,” tulis OpenAI dalam keterangan resminya.

Sebagai langkah mitigasi, OpenAI menerapkan siklus respons cepat yang proaktif untuk menemukan strategi serangan baru secara internal sebelum dieksploitasi oleh pihak luar. Salah satu taktik berbeda yang diambil OpenAI adalah pengembangan penyerang otomatis berbasis model bahasa besar (LLM-based automated attacker).

Bot ini dilatih menggunakan metode reinforcement learning untuk berperan sebagai peretas yang mencari cara menyelinapkan instruksi berbahaya ke dalam agen AI. Melalui simulasi tersebut, bot dapat mempelajari bagaimana target AI berpikir dan tindakan apa yang akan diambil jika menghadapi serangan tertentu.

Wawasan terhadap penalaran internal ini memungkinkan OpenAI menemukan celah keamanan lebih cepat dibandingkan dengan hacker di dunia nyata.

Sebelumnya, Pusat Keamanan Siber Nasional (NCSC) Inggris telah memperingatkan bahwa serangan prompt injection terhadap aplikasi AI generatif mungkin tidak akan pernah bisa diselamatkan secara total.

NCSC menyarankan para profesional keamanan siber untuk fokus pada pengurangan dampak risiko daripada sekadar mencoba menghentikan serangan sepenuhnya.

Principal Security Researcher di firma keamanan siber Wiz Rami McCarthy menyatakan bahwa cara yang berguna untuk mengukur risiko dalam sistem AI adalah dengan mengalikan tingkat otonomi dengan akses yang dimiliki.

“Peramban agen AI cenderung berada di ruang yang menantang, yakni otonomi moderat yang dikombinasikan dengan akses yang sangat tinggi,” ujar McCarthy dikutip dari TechCrunch.

Menurut McCarthy, profil risiko peramban agen saat ini masih dianggap terlalu tinggi dibandingkan nilai manfaat yang diberikan untuk sebagian besar kasus penggunaan sehari-hari.

Risiko tersebut mencakup akses ke data sensitif seperti email dan informasi pembayaran, meskipun akses inilah yang membuat AI menjadi alat yang sangat fungsional.

Guna mengurangi risiko, OpenAI menyarankan pengguna untuk membatasi akses login dan memberikan instruksi yang spesifik kepada agen AI. 

Juru bicara OpenAI menyebutkan bahwa Atlas telah dilatih untuk selalu meminta konfirmasi pengguna sebelum mengirim pesan atau melakukan transaksi pembayaran. (Muhammad Diva Farel Ramadhan)