Regulasi AI: Kunci Tangkal Hoax dan Deepfake, Kata Pakar

Pakar kecerdasan buatan (AI) menyuarakan kebutuhan mendesak untuk merumuskan regulasi yang kuat dalam pemanfaatan teknologi ini, khususnya untuk menangkal penyebaran berita palsu (hoaks) dan deepfake. Hal ini disampaikan oleh Bari Arijono, Presiden Akademi Kecerdasan Buatan, dalam wawancara yang berlangsung di Jakarta. Menurutnya, teknologi AI semakin mudah digunakan untuk kejahatan siber, termasuk dalam menciptakan konten yang menyesatkan dan berbahaya.

Dalam era digital saat ini, tantangan untuk membedakan antara fakta dan hoaks semakin meningkat, terutama dengan kemajuan teknologi deepfake. Deepfake, sebagai produk dari AI, mampu menghasilkan video, audio, dan gambar yang tampak sangat mirip dengan aslinya. "Kita harus punya peraturan yang kuat untuk menangkal dan menyaring banyaknya hoax, deepfake lewat AI. Jadi AI harus hadir di situ, teknologi harus hadir untuk bisa menangkap bahwa ini adalah berita hoax, ini berita palsu, berita bohong," ungkap Bari saat diwawancarai.

Meningkatnya kasus deepfake di Indonesia juga menjadi isu serius yang harus diperhatikan. Berdasarkan data dari Vida, terjadi peningkatan sebesar 1.550 persen dalam kasus deepfake antara tahun 2022 dan 2023. Angka ini menunjukkan bahwa ancaman dari teknologi AI ini semakin nyata dan memerlukan tindakan segera dari pemerintah dan pemangku kepentingan terkait.

Bari juga menyoroti dampak negatif dari penggunaan AI pada anak-anak, dengan mencemaskan interaksi mereka yang semakin intensif dengan teknologi ini. Menurutnya, cara interaksi anak-anak Gen Z yang lebih banyak menggunakan percakapan vokal ketimbang mengetik pesan dapat memunculkan masalah psikologis seperti ketergantungan dan depresi. Lebih jauh lagi, ia mengingatkan bahwa AI dapat memengaruhi pengambilan keputusan yang dapat berujung pada perilaku berbahaya, jika tidak diawasi dengan baik.

Oleh karena itu, Bari mengusulkan beberapa langkah untuk melindungi anak-anak dari dampak buruk AI. Diantaranya adalah:

  1. Pembatasan Akses: Pengaturan akses AI pada perangkat yang digunakan anak-anak agar lebih terbatas.
  2. Pengawasan Orang Tua: Membuat regulasi yang memungkinkan kontrol orang tua terhadap penggunaan AI di kalangan anak-anak.
  3. Penyatuan Panduan Penggunaan AI: Merumuskan panduan penggunaan AI yang konsisten dari berbagai kementerian untuk menghindari kebingungan di masyarakat.

Bari berharap Kementerian Komunikasi dan Digital (Komdigi) dapat berkolaborasi dengan kementerian lain untuk merumuskan panduan yang seragam. "Komdigi ingin menyatukan agar setiap kementerian bisa memberikan panduan yang sama. Dewan Pers juga punya panduan sendiri kan. Punya panduan yang sama, ini perlu dirumuskan bersama-sama oleh Komdigi sama seluruh Kementerian Pembangunan untuk AI seperti apa, terutama untuk masyarakat umum," jelasnya.

Seiring dengan upaya ini, Bari percaya bahwa regulasi yang akan datang harus mencakup poin-poin penting, seperti perlindungan terhadap anak-anak, serta langkah-langkah konkret untuk menangkal hoaks dan deepfake. Dengan adanya regulasi yang tepat, diharapkan teknologi AI dapat dimanfaatkan untuk kemajuan bangsa tanpa menimbulkan dampak negatif yang merugikan masyarakat.

Dalam konteks global, berbagai negara sudah mulai mempertimbangkan regulasi serupa untuk menampingi perkembangan teknologi AI yang makin pesat. Dengan demikian, Indonesia pun tidak bisa ketinggalan untuk menerapkan langkah-langkah yang strategis dalam hal ini. Keberadaan regulasi yang solid tidak hanya melindungi masyarakat, tetapi juga membuka potensi bagi inovasi yang bertanggung jawab di bidang kecerdasan buatan.

Berita Terkait

Back to top button