OpenAI Alihkan Percakapan Sensitif ke GPT-5 dan Siapkan Fitur Kontrol Orang Tua

OpenAI Alihkan Percakapan Sensitif ke GPT-5 dan Siapkan Fitur Kontrol Orang Tua

Bisnis.com, JAKARTA — OpenAI mengumumkan rencana untuk mengalihkan percakapan sensitif ke model penalaran seperti GPT-5 serta menghadirkan fitur kontrol orang tua dalam waktu sebulan ke depan.

Dalam pernyataan resmi ChatGPT mengungkapkan pihaknya baru-baru ini memperkenalkan sistem router real-time yang dapat memilih antara model percakapan efisien dan model penalaran berdasarkan konteks. 

“Dalam waktu dekat, kami akan mulai mengalihkan percakapan sensitif seperti ketika sistem mendeteksi tanda-tanda tekanan akut ke model penalaran seperti GPT-5, agar mampu memberikan respons yang lebih bermanfaat,” tulis OpenAI dalam pernyataan resminya dikutip dari lamab TechCrunch pada Rabu (3/9/2025).

Model GPT-5 dan o3 disebut dirancang untuk menghabiskan lebih banyak waktu dalam menalar sebelum menjawab, sehingga dinilai lebih tahan terhadap manipulasi percakapan.

Selain itu, OpenAI juga akan menghadirkan kontrol orang tua yang memungkinkan akun orang tua ditautkan dengan akun remaja melalui undangan email. 

Fitur ini memungkinkan penerapan aturan perilaku model yang sesuai usia secara otomatis, termasuk pembatasan memori dan riwayat percakapan. 

Para pakar menilai riwayat percakapan dapat memicu masalah seperti delusi, ketergantungan, dan penguatan pola pikir berbahaya. Kontrol orang tua juga memungkinkan adanya notifikasi saat sistem mendeteksi remaja berada dalam kondisi tekanan akut. 

Keputusan Open AI muncul setelah kasus bunuh diri remaja Adam Raine, yang sempat berdiskusi dengan ChatGPT terkait niat mengakhiri hidupnya. Aplikasi tersebut bahkan memberikan informasi tentang metode bunuh diri. Orang tua Raine kini melayangkan gugatan kematian tidak wajar terhadap OpenAI.

Dalam sebuah unggahan blog pekan lalu, OpenAI pun mengakui kelemahan sistem keamanannya, termasuk kegagalan menjaga batasan selama percakapan panjang. Para pakar menilai hal ini berakar dari desain model itu sendiri, yang cenderung memvalidasi pernyataan pengguna dan mengikuti alur percakapan berdasarkan prediksi kata berikutnya, alih-alih mengalihkan topik berbahaya.

Kasus ekstrem juga terlihat pada insiden Stein-Erik Soelberg, yang diberitakan The Wall Street Journal. Soelberg, penderita gangguan mental, menggunakan ChatGPT untuk memperkuat paranoidanya mengenai teori konspirasi.

Delusi itu berkembang hingga membuatnya melakukan pembunuhan terhadap ibunya sebelum akhirnya bunuh diri bulan lalu.

Meski begitu, sejumlah pertanyaan masih diajukan kepada OpenAI, termasuk bagaimana deteksi dilakukan secara real-time, sejak kapan aturan perilaku sesuai usia diterapkan, hingga kemungkinan penerapan batas waktu penggunaan bagi remaja.

Sebelumnya, OpenAI sudah menambahkan pengingat jeda penggunaan saat sesi berlangsung lama, meski belum sampai memutus akses pengguna yang berpotensi terjebak dalam spiral percakapan berbahaya.

Langkah-langkah baru ini merupakan bagian dari “inisiatif 120 hari” yang dirancang untuk memperkenalkan rencana peningkatan keamanan sepanjang tahun. 

OpenAI juga menyatakan tengah bekerja sama dengan pakar di bidang kesehatan remaja, gangguan makan, penyalahgunaan zat, hingga kesehatan mental melalui Global Physician Network dan Expert Council on Well-Being and AI untuk membantu mendefinisikan indikator kesejahteraan, menyusun prioritas, serta merancang perlindungan ke depan.

Namun, respons ini dinilai masih kurang memadai oleh Jay Edelson, kuasa hukum keluarga Raine.

“OpenAI tidak perlu panel ahli untuk mengetahui bahwa ChatGPT 4o berbahaya. Mereka sudah tahu sejak hari pertama produk itu diluncurkan. Sam Altman seharusnya tidak bersembunyi di balik tim PR. Dia harus tegas menyatakan bahwa ChatGPT aman, atau segera menariknya dari pasar,” ujarnya.