Dalam inisiatif terobosannya, Anthropic bermitra dengan lembaga pemerintah AS untuk melakukan penilaian keamanan pada model Claude 3 Sonnet miliknya. Kemitraan yang dimulai pada bulan April ini baru terungkap baru-baru ini. Inisiatif ini menandai langkah penting dalam meningkatkan keamanan AI.
Administrasi Keamanan Nuklir Nasional (NNSA) Departemen Energi AS (DOE) sedang melakukan latihan “tim merah” pada model AI Anthropic, Claude 3 Sonnet. Tim merah melibatkan para ahli yang mencoba merusak atau menyalahgunakan sistem untuk mengungkap kerentanan. Tujuan utamanya adalah untuk menilai apakah tanggapan Claude dapat dimanipulasi untuk menciptakan senjata nuklir atau mengakses teknologi nuklir yang berbahaya.
Evaluasi kemampuan Claude akan berlanjut hingga Februari. Ini juga termasuk penilaian terhadap model Claude 3.5 Sonnet yang diperbarui yang diperkenalkan pada bulan Juni. Untuk mempersiapkan pengujian ketat yang berfokus pada pemerintah ini, Anthropic memanfaatkan kemitraannya dengan Amazon Web Services (AWS). Namun, sifat sensitif dari tes ini membuat Anthropic tidak mengungkapkan temuan apa pun sejauh ini.
Berbagi Informasi untuk Keamanan yang Lebih Luas
Anthropic berencana untuk membagikan hasil penilaian keamanannya dengan laboratorium penelitian dan organisasi lain. Tujuannya adalah untuk mendorong evaluasi independen untuk mencegah penyalahgunaan sistem AI. Menurut Marina Favaro, pimpinan kebijakan keamanan nasional Anthropic, kolaborasi antara perusahaan teknologi dan lembaga federal sangat penting dalam menilai potensi risiko keamanan nasional.
Wendin Smith, administrator asosiasi di NNSA, menekankan bahwa AI adalah inti dari diskusi keamanan nasional saat ini. Badan ini fokus pada evaluasi risiko terkait keselamatan nuklir dan radiologi. Kemitraan ini sejalan dengan arahan Presiden Joe Biden baru-baru ini, yang mendesak lembaga-lembaga untuk melakukan penilaian keamanan AI di lingkungan yang aman.
Perusahaan Teknologi Mengejar Kontrak Pemerintah
Sebagai bagian dari upaya keamanan berkelanjutan, Anthropic bermitra dengan pemerintah AS. Kolaborasi Anthropic dengan DOE adalah bagian dari tren yang lebih besar di mana pengembang AI berlomba untuk bermitra dengan pemerintah. Baru-baru ini, Anthropic bekerja sama dengan Palantir dan AWS untuk menawarkan model AI-nya kepada badan intelijen AS. OpenAI juga telah berkolaborasi dengan organisasi seperti NASA dan Departemen Keuangan.
Seiring dengan kemajuan kemitraan keselamatan AI, masa depan mereka masih belum pasti di tengah potensi perubahan politik. Elon Musk, yang kini berpengaruh di Washington, memiliki pandangan beragam mengenai keamanan AI. Meskipun Musk pernah menganjurkan kontrol yang lebih ketat, proyek AI Musk saat ini, xAI, condong ke arah pendekatan yang lebih terbuka dan berfokus pada kebebasan berpendapat. Lanskap politik yang berkembang dapat berdampak signifikan terhadap masa depan tata kelola AI dan pengujian keamanan.
Tantangan dalam Mengamankan AI di Tengah Ketidakpastian Politik
Kemitraan antara Anthropic dan DOE mewakili langkah signifikan dalam menyelaraskan kemajuan AI dengan masalah keamanan nasional. Kolaborasi baru-baru ini di mana Anthropic bermitra dengan pemerintah AS menyoroti semakin besarnya fokus pada peran AI dalam keamanan nasional. Ketika sistem AI menjadi lebih canggih, potensi penyalahgunaannya di bidang-bidang berisiko tinggi seperti keamanan nuklir menjadi masalah yang mendesak. Kolaborasi ini menyoroti pendekatan proaktif untuk memastikan bahwa model AI, seperti Claude 3 Sonnet dari Anthropic, diuji secara menyeluruh untuk mengetahui kerentanan yang dapat menyebabkan konsekuensi bencana.
Meskipun kolaborasi ini memiliki aspek yang menjanjikan, keberhasilan jangka panjang dari inisiatif tersebut menghadapi ketidakpastian politik. Pemerintahan mendatang berpotensi mengubah jalannya tata kelola AI, terutama dengan tokoh-tokoh seperti Elon Musk yang berperan dalam membentuk kebijakan AI.
Selain itu, persaingan untuk mendapatkan kontrak pemerintah di antara perusahaan-perusahaan AI seperti Anthropic, OpenAI, dan Scale AI dapat mengarah pada fokus pada keuntungan dibandingkan keselamatan. Persaingan ini dapat menekan perusahaan untuk memprioritaskan kecepatan dibandingkan pengujian menyeluruh, yang dapat melemahkan tujuan untuk memastikan keamanan AI. Dorongan untuk menerapkan model AI di bidang-bidang penting pemerintahan seperti intelijen dan pertahanan menyoroti tren yang berkembang dalam penggunaan AI untuk meningkatkan keamanan nasional. Namun, tanpa kerangka peraturan yang jelas dan konsisten, kemitraan ini mungkin akan terputus jika prioritas politik berubah.
Baca Juga: Google Meluncurkan Fitur Deteksi Penipuan Bertenaga AI Baru untuk Keamanan Panggilan.