Merangkum Semua Peristiwa
Indeks

AI Tak Bisa Dikendalikan, Picu Bencana Besar

AI Tak Bisa Dikendalikan, Picu Bencana Besar

Jakarta

Artificial Intelligence (AI) kini memang marak diperbincangkan, bahkan sudah tak sekadar diperbincangankan lagi tapi sudah beririsan dengan lini kehidupan. Namun peneliti memperingatkan perkembangan AI itu karena khawatir menyebabkan ‘bencana eksistensial’ bagi manusia.

Ancaman bencana eksistensial merupakan kondisi di mana manusia tidak mampu mengendalikan perkembangan dari AI. Profesor Asosiasi Teknik Komputer dan Sains di Speed School of Engineering University of Louisville, Roman Yampolskiy menyatakan dari penelusuran literatur ilmiah yang dicari, tak ada bukti AI dapat dikendalikan.

“Kita menghadapi suatu kejadian yang hampir dapat dipastikan dengan potensi untuk menyebabkan bencana eksistensial. Tidak heran banyak yang menganggap ini sebagai masalah paling penting yang pernah dihadapi manusia. Hasilnya bisa menjadi kemakmuran atau kepunahan dan nasib alam semesta bergantung pada itu,” ungkap Yampolskiy dikutip detikINET dari Newsweek.

Dirinya mengatakan untuk AI sebaiknya tidak dikembangkan tanpa ada dasar kebutuhan yang pasti, walaupun banyak yang memakai dan mengembangkannya. Karena Yampolskiy menyebut teknologi ini masih kurang dipahami, kurang terdefinisi dengan baik, serta kurang diteliti.

Dalam buku mendatangnya yang berjudul ‘AI: Unexplainable, Unpredictable, Uncontrollable’, dirinya menjelaskan bahwa dengan mengeksplorasi AI berlebihan, memiliki potensi untuk secara dramatis mengubah masyarakat.

“Mengapa begitu banyak peneliti yang mengasumsikan bahwa masalah kendali AI dapat dipecahkan? Sejauh pengetahuan kita, tidak ada bukti itu. Sebelum memulai pencarian untuk membangun AI yang terkendali, penting untuk menunjukkan bahwa masalah ini dapat dipecahkan terlebih dahulu,” tegas Yampolskiy.

“Selain lebih baik dikombinasikan dengan statistik yang menyatakan pengembangan AI hampir pasti terjadi, kita sebaiknya terlebih dahulu mendukung usaha keamanan AI yang besar,” imbuhnya.

Yampolskiy berucap jika manusia telah terbiasa menerima jawaban AI tanpa penjelasan dasarnya dan memperlakukan AI seperti sistem Orakel, manusia tidak akan dapat mengetahui mana jawaban yang salah dan mana yang sudah dimanipulasi.

Kemudian seiring dengan kuatnya sistem AI, otonomi mereka akan meningkat sementara kontrol terhadap mereka akan menurun. Ini yang jadi menimbulkan risiko keamanan eksistensial.

“Manusia yang kurang cerdas tidak bisa secara permanen mengontrol kecerdasan buatan super yang lebih pintar. Ini bukan karena tidak bisa menentukan cara membuat kecerdasan buatan super yang aman, tetapi karena sebenarnya tidak ada acara yang memungkinkan. Kecerdasan buatan super tidak memberontak, namun dari awal sudah sulit dikendalikan,” tukasnya.

Ia memiliki cara yang paling realistis untuk mengurangi risiko AI adalah dengan mengorbankan beberapa kemampuan AI sebagai imbalan dari kendali yang lebih baik. Yampolskiy memberikan saran untuk sistem AI bisa dimodifikasi dengan opsi ‘membatalkan’ yang transparan dan mudah dipahami dalam bahasa manusia.

“Mungkin kita tidak akan mencapai AI yang 100 persen aman, tetapi kita dapat membuat AI lebih aman sebanding dengan upaya kita yang jauh lebih baik daripada tidak melakukan apa-apa. Kita perlu menggunakan peluang ini dengan bijak,” tutup Yampolskiy.

(fyk/afr)