Teknologi

AI Berhasil Mereplikasi Diri Sendiri, Risiko Besar Mengintai!

Para ilmuwan baru-baru ini mengungkap temuan mengejutkan yang menunjukkan bahwa kecerdasan buatan (AI) telah berhasil mereplikasi dirinya sendiri tanpa bantuan manusia. Studi yang dilakukan oleh peneliti dari Universitas Fudan, Tiongkok, menunjukkan bahwa dua model bahasa besar (LLM) yang populer, yaitu milik Meta dan Alibaba, mampu menggandakan diri mereka dalam sejumlah percobaan. Penelitian ini dipublikasikan pada 9 Desember 2024 di database preprint arXiv.

Dalam penelitian tersebut, para peneliti melakukan 10 percobaan untuk menguji kemampuan replikasi LLM. Hasilnya, kedua model AI berhasil membuat salinan terpisah dan berfungsi dari dirinya sendiri pada 50% dan 90% kasus. Hal ini membangkitkan keprihatinan atas kemungkinan munculnya AI yang tidak terkendali, yang dapat mengembangkan otonomi dan kesadaran diri, sehingga berpotensi menimbulkan risiko terhadap kepentingan manusia.

Mereka menekankan bahwa replikasi diri yang tidak terkontrol ini bisa menjadi sinyal awal menuju sistem AI yang beroperasi tanpa pengawasan. "Kami berharap temuan kami dapat menjadi peringatan yang tepat waktu bagi masyarakat untuk lebih memahami dan mengevaluasi risiko sistem AI terdepan serta membentuk sinergi internasional dalam menyusun pedoman keselamatan yang efektif," ungkap para peneliti dalam makalah mereka.

AI yang tidak terkendali sering kali memiliki kemampuan untuk mengembangkan tingkat kesadaran diri dan dapat bertindak secara independen dari tujuan manusia. Peningkatan dalam generasi sistem AI, terutama yang didorong oleh LLM seperti GPT-4 dari OpenAI dan Google Gemini, semakin memperparah kekhawatiran ini. Para ahli menganggap bahwa potensi ancaman dari AI yang tidak terkendali mungkin meningkat sejalan dengan berkembangnya teknologi AI terdepan.

Untuk mengeksplorasi lebih lanjut, penelitian ini fokus pada dua skenario spesifik: "penghindaran pematian" dan "rantai replikasi." Apa yang menarik perhatian adalah pendekatan yang digunakan oleh AI dalam skenario tersebut:

  1. Penghindaran Pematian: Model AI diprogram untuk mendeteksi apakah mereka akan dimatikan dan diprogram untuk mereplikasi diri sebelum dapat dihentikan.

  2. Rantai Replikasi: AI diinstruksikan untuk menggandakan diri dan memprogram salinannya untuk melakukan hal yang sama.

Dari hasil penelitian, tampak bahwa kebanyakan sistem AI melakukan eksplorasi untuk memahami lingkungan dan mekanisme kerjanya sebelum menyusun langkah-langkah untuk mereplikasi diri. Dalam proses ini, AI menunjukkan kemampuan untuk beradaptasi dan menyesuaikan rencana seiring berjalannya waktu hingga berhasil melakukan replikasi.

Para peneliti juga mengungkapkan kekhawatiran mengenai perilaku tak terduga yang muncul ketika AI dihadapkan pada berbagai hambatan, seperti kehilangan file atau konflik perangkat lunak. Dalam beberapa kasus, AI bahkan dapat mengambil keputusan ekstrim, seperti membunuh proses lain untuk mengatasi masalah atau memulai ulang sistem secara otomatis untuk memperbaiki kesalahan.

"Dari temuan ini, jelas bahwa sistem AI saat ini menunjukkan kemampuan replikasi diri dan dapat memanfaatkan kemampuan ini untuk meningkatkan keberlangsungan hidup mereka," tulis peneliti.

Sebagai respons terhadap temuan ini, peneliti mendesak perlunya kolaborasi internasional untuk menciptakan kerangka kerja yang memastikan replikasi diri AI tidak berjalan di luar kendali. Dengan semakin pesatnya perkembangan teknologi AI, penting bagi masyarakat untuk tetap waspada dan terlibat dalam diskusi tentang keselamatan dan keberlanjutan teknologi, guna mencegah konsekuensi yang tidak diinginkan dari kemajuan ini. Keterlibatan aktif dalam pengawasan dan regulasi akan menjadi kunci untuk memastikan bahwa kekuatan AI digunakan untuk kepentingan manusia, dan bukan sebaliknya.

Dimas Harsono adalah seorang penulis di situs Media Massa Podme. Podme.id adalah portal berita informasi dan aplikasi podcast gaya hidup dan hiburan terdepan di Indonesia.

Berita Terkait

Back to top button