Dalam beberapa bulan terakhir, sejumlah besar peneliti keamanan AI telah meninggalkan OpenAI, sehingga menimbulkan kekhawatiran tentang komitmen perusahaan untuk mengelola risiko yang terkait dengan kecerdasan umum buatan (AGI). AGI mengacu pada sistem AI yang mampu melakukan tugas yang bernilai ekonomis sama seperti yang dilakukan oleh manusia.
Menurut Daniel Kokotajlo, mantan peneliti, hampir setengah dari staf keselamatan AGI telah meninggalkan perusahaan karena adanya pergeseran fokus dari keselamatan ke komersialisasi. Nama-nama terkenal seperti Jan Hendrik Kirchner, Collin Burns, Jeffrey Wu, Jonathan Uesato, Steven Bills, Yuri Burda, Todor Markov, dan salah satu pendiri John Schulman juga telah meninggalkan perusahaan.
OpenAI telah diakui atas misinya untuk mengembangkan AGI dengan cara yang bermanfaat bagi manusia. Namun, muncul kekhawatiran bahwa sistem tersebut berpotensi lepas dari kendali manusia dan menimbulkan ancaman eksistensial. Untuk mengurangi risiko ini, OpenAI awalnya mempekerjakan sejumlah besar peneliti yang berdedikasi pada “keselamatan AGI,” dengan fokus pada pengembangan strategi untuk memastikan sistem AGI di masa mendatang aman.
Namun, menurut Kokotajlo, pengunduran diri baru-baru ini menunjukkan adanya pergeseran fokus perusahaan dari keselamatan AGI ke arah pengembangan dan komersialisasi produk. Perubahan ini telah menyebabkan apa yang digambarkan Kokotajlo sebagai “dampak yang mengerikan” dalam OpenAI, dengan penekanan yang lebih sedikit pada penelitian yang ditujukan untuk mengurangi risiko yang terkait dengan AGI. Perusahaan baru-baru ini telah merekrut beberapa eksekutif dengan latar belakang keuangan dan manajemen produk, termasuk Sarah Friar sebagai CFO, Kevin Weil sebagai kepala bagian produk, dan Irina Kofman untuk memimpin inisiatif strategis, yang selanjutnya menunjukkan adanya pergeseran prioritas.
Kekhawatiran Atas Menurunnya Penekanan pada Keselamatan
Kepergian beberapa peneliti utama telah menimbulkan kekhawatiran tentang apakah OpenAI cukup memprioritaskan keselamatan saat mengembangkan AGI. Kokotajlo menyatakan bahwa beberapa peneliti merasa dikesampingkan saat perusahaan mengalihkan fokusnya.
Keluarnya kepala ilmuwan Ilya Sutskever dan Jan Leike, yang memimpin tim “superalignment” OpenAI, semakin memicu kekhawatiran. Tim superalignment bertanggung jawab untuk mengembangkan metode untuk mengendalikan “kecerdasan super buatan”, sebuah konsep yang membayangkan sistem AI yang lebih mampu daripada semua manusia yang digabungkan.
Dalam pernyataan pengunduran dirinya, Leike mengindikasikan bahwa fokus pada keselamatan telah berkurang dan lebih mengutamakan pengembangan “produk yang menarik.” Kokotajlo menyuarakan sentimen ini, dengan mencatat bahwa perusahaan tersebut tampaknya mulai menjauh dari misi awalnya untuk mempertimbangkan risiko AGI dengan saksama. Sebaliknya, tampaknya ada peningkatan pengaruh dari divisi komunikasi dan lobi OpenAI, yang mungkin memengaruhi publikasi penelitian yang terkait dengan risiko AGI.
Pandangan Berbeda tentang Keamanan dan Regulasi AI
Pergeseran strategis OpenAI ke arah pengembangan produk telah berkontribusi pada lingkungan di mana hampir setengah dari staf keselamatan AGI telah keluar. Meskipun kepergian para peneliti menimbulkan kekhawatiran, tidak semua orang di komunitas AI memiliki tingkat kekhawatiran yang sama.
Beberapa pemimpin AI, termasuk Andrew Ng, Fei-Fei Li, dan Yann LeCun, percaya bahwa fokus pada potensi ancaman eksistensial AI dibesar-besarkan. Mereka berpendapat bahwa AGI masih jauh dari terwujud dan bahwa AI dapat memainkan peran penting dalam mengatasi risiko eksistensial yang lebih mendesak, seperti perubahan iklim dan pandemi.
Para kritikus ini juga mengungkapkan kekhawatiran bahwa penekanan berlebihan pada risiko AGI dapat menyebabkan tindakan regulasi yang dapat menghambat inovasi. Misalnya, RUU SB 1047 California, yang bertujuan untuk mengatur model AI yang canggih, telah memicu perdebatan yang cukup besar. Kokotajlo mengkritik penentangan OpenAI terhadap RUU tersebut, dengan menyatakan bahwa RUU tersebut mencerminkan penyimpangan dari komitmen sebelumnya untuk mengevaluasi risiko AGI dan mendukung regulasi yang sesuai.
Karena OpenAI berfokus pada penskalaan produk komersialnya, hampir setengah dari staf keselamatan AGI telah keluar, yang dapat membahayakan manajemen risiko jangka panjang. Meskipun ada pengunduran diri baru-baru ini, beberapa peneliti tetap berada di OpenAI, terus bekerja pada keselamatan AI di dalam tim lain. Setelah pembubaran tim penyelarasan super, OpenAI telah membentuk komite keselamatan dan keamanan baru untuk mengawasi keputusan keselamatan yang penting. Selain itu, profesor Universitas Carnegie Mellon Zico Kolter, yang dikenal karena karyanya dalam keamanan AI, telah ditunjuk menjadi dewan direksi OpenAI.
Baca Juga: OpenAI Mendukung Upaya California untuk Transparansi AI, Mendukung RUU yang Mewajibkan 'Watermarking' pada Konten Sintetis.