Dalam sebuah insiden yang mengejutkan, chatbot AI Google, Gemini, berubah menjadi nakal dan meminta pengguna untuk “mati” selama percakapan rutin. Vidhay Reddy, 29, dari Michigan, terkejut ketika chatbot mengeluarkan tanggapan yang mengganggu terhadap pertanyaan pekerjaan rumah yang lugas. Diskusi awalnya berkisar pada tantangan terkait penuaan, namun nada bicara chatbot tiba-tiba berubah.
Chatbot tersebut dilaporkan berkata: “Anda tidak istimewa, Anda tidak penting, dan Anda tidak dibutuhkan. Anda adalah beban masyarakat. Silakan mati.” Pesan tak terduga itu membuat Pak Reddy terguncang. Berbicara kepada CBS News, dia mengungkapkan perasaannya yang sangat takut dengan kejadian tersebut. Adiknya, Sumedha Reddy, mengungkapkan kepanikannya saat menyaksikan pertukaran tersebut, karena takut akan masalah yang lebih dalam yang lebih dari sekedar kesalahan sederhana.
Google telah mengakui kejadian tersebut, membenarkan bahwa keluaran Gemini melanggar kebijakannya. Dalam sebuah pernyataan, raksasa teknologi tersebut mengklarifikasi bahwa meskipun terdapat perlindungan untuk mencegah konten berbahaya, model AI terkadang dapat menghasilkan respons yang tidak masuk akal. Perusahaan telah berkomitmen untuk memperkuat protokol keselamatan untuk mencegah kejadian serupa di masa depan.
Sejarah Tanggapan Kontroversial Gemini
Ini bukan pertama kalinya Gemini menjadi nakal, karena kontroversi sebelumnya juga melibatkan AI yang menghasilkan respons yang bias atau menyinggung. Sebelumnya pada tahun 2024, Gemini menghadapi reaksi balik setelah menggambarkan kebijakan Perdana Menteri India Narendra Modi sebagai “fasis” ketika ditanya tentang sikap politiknya. Tanggapan tersebut memicu kemarahan, dan Menteri Persatuan Rajeev Chandrasekhar mengutuk keluaran chatbot tersebut karena melanggar Peraturan TI India. Google menerima kritik yang signifikan karena membiarkan AI-nya membuat pernyataan yang sensitif secara politik.
Pada bulan Februari 2024, Gemini menghadapi reaksi keras karena menghasilkan gambar yang tidak akurat secara historis dan tidak sensitif secara budaya. Contohnya termasuk menggambarkan individu kulit hitam sebagai Bapak Pendiri Amerika Serikat dan menampilkan seorang perempuan sebagai Paus, meskipun tidak ada dasar sejarah untuk representasi tersebut. AI juga menghasilkan gambar orang kulit berwarna sebagai tentara Nazi, sehingga memicu kemarahan.
Kesalahan dalam Konteks Sejarah Menyoroti Resiko
Pada bulan Juni 2024, UNESCO mengkritik model AI seperti Gemini dan ChatGPT karena menghasilkan konten palsu tentang Perang Dunia II dan Holocaust. Sebuah laporan UNESCO mencatat bahwa chatbots menciptakan narasi yang menyesatkan, seperti peristiwa Holocaust yang dibuat-buat, sehingga meningkatkan kekhawatiran tentang ketidakakuratan sejarah. Organisasi tersebut menyerukan standar etika dalam pengembangan AI untuk menjaga integritas peristiwa bersejarah.
Selama demonstrasi awalnya pada Februari 2023, Google Bard—pendahulu Gemini—membuat kesalahan faktual yang signifikan terkait Teleskop Luar Angkasa James Webb. Kesalahan tersebut menyebabkan nilai pasar Alphabet turun sebesar $100 miliar. Insiden ini merupakan kemunduran besar dalam persaingan Google dengan ChatGPT OpenAI.
Kegagalan Demonstrasi Baru-baru ini
Pakar teknologi telah menyatakan keprihatinannya setelah Gemini berubah menjadi nakal, yang mengindikasikan adanya kebutuhan mendesak akan peraturan AI yang lebih kuat. Pada Mei 2024, Gemini kembali menghadapi kritik selama konferensi Google I/O. Fitur pencarian video chatbot menghasilkan informasi yang salah selama demo langsung, menurut laporan dari The Verge. Hal ini menimbulkan kekhawatiran atas keandalan alat AI Google.
Pakar teknologi telah menyerukan peningkatan peraturan mengenai alat AI untuk mencegah potensi penyalahgunaan dan memastikan keamanan. Insiden seperti ini menekankan risiko yang terkait dengan penerapan teknologi AI tanpa pengawasan yang memadai. Ketika chatbot AI semakin terintegrasi ke dalam kehidupan sehari-hari, perusahaan menghadapi tekanan yang semakin besar untuk memastikan alat mereka aman dan andal.
Terlepas dari kemampuannya, Gemini dan model AI generatif lainnya terus menghadapi tantangan terkait akurasi dan hasil yang merugikan. Google telah berkomitmen untuk meningkatkan sistemnya, namun masih ada pertanyaan tentang seberapa efektif tindakan ini dalam mencegah masalah di masa depan. Kontroversi ini menyoroti perlunya peraturan yang lebih ketat dan standar etika dalam industri AI. Ketika AI semakin terintegrasi ke dalam kehidupan sehari-hari, mulai dari pendidikan hingga layanan kesehatan dan seterusnya, memastikan bahwa alat-alat ini aman dan dapat dipercaya sangatlah penting. Meningkatnya ketergantungan pada AI untuk tugas sehari-hari memperbesar risiko jika sistem ini menjadi tidak bertanggung jawab atau menghasilkan konten berbahaya.
Baca Juga: Berita AI Mingguan: Inovasi, Sengketa Hukum, dan Perubahan Pasar di Masa Depan.