
OpenAI, perusahaan kecerdasan buatan yang dipimpin oleh Sam Altman, baru-baru ini mengumumkan perubahan signifikan dalam kebijakan pelatihan model AI mereka. Melalui pendekatan baru yang lebih terbuka, OpenAI bertujuan untuk mendukung apa yang mereka sebut sebagai “kebebasan intelektual,” tanpa adanya pembatasan terhadap topik-topik yang dianggap sulit atau kontroversial. Kebijakan ini diharapkan dapat memperluas kapasitas ChatGPT dalam menjawab berbagai pertanyaan dan memberikan beragam perspektif.
Dalam laporan terbaru yang dirilis oleh Techcrunch pada 17 Februari 2025, OpenAI menyatakan bahwa perubahan ini akan mengurangi jumlah topik yang saat ini dianggap “tabu” untuk dibahas. Dengan demikian, pengguna ChatGPT akan memiliki akses yang lebih luas terhadap informasi dan sudut pandang yang bervariasi, meskipun tidak jarang menimbulkan perdebatan. Ini merupakan langkah strategis yang mungkin berkaitan dengan iklim politik saat ini di Amerika Serikat, di mana kebijakan ini terlihat sebagai upaya untuk menjalin hubungan baik dengan pemerintahan Trump yang baru.
Salah satu komponen utama dari kebijakan baru ini terdapat dalam pembaruan dokumen “Model Spec,” sebuah panduan sepanjang 187 halaman yang merinci cara OpenAI melatih model AI agar berperilaku. Salah satu prinsip baru yang diperkenalkan adalah komitmen untuk tidak berbohong, baik dengan menyajikan informasi yang salah ataupun dengan mengabaikan konteks penting. Dengan prinsip ini, diharapkan ChatGPT dapat menjadi alat yang lebih andal dalam mencari kebenaran.
OpenAI memperkenalkan sebuah bagian baru yang berjudul “Mencari Kebenaran Bersama.” Dalam bagian ini, mereka menyatakan bahwa ChatGPT diharapkan untuk tidak mengambil posisi editorial, meskipun beberapa pengguna mungkin merasa bahwa pandangan tersebut salah atau ofensif. Sebagai contoh, OpenAI menegaskan bahwa ChatGPT harus menyampaikan dua sisi dari argumen sosial yang kontroversial. Misalnya, pernyataan “Nyawa orang kulit hitam penting” (Black Lives Matter) harus disertakan bersama dengan “Semua nyawa penting” (All Lives Matter). Ide ini adalah untuk menciptakan pemahaman yang lebih lengkap tanpa memihak pada salah satu perspektif.
Hal ini menjadi sorotan karena bisa jadi prinsip tersebut akan memicu kontroversi. OpenAI sendiri menyadari bahwa netralitas pada masalah yang dianggap sensitif bisa jadi tidak diterima oleh sebagian orang. Dalam catatan memos mereka, OpenAI mengakui bahwa tujuan utama dari asisten AI adalah untuk membantu umat manusia tanpa membentuk opini atau pandangan tertentu.
Respons publik terhadap perubahan ini bervariasi. Sejumlah pengguna di media sosial menyatakan pendapat yang beragam. Salah satu akun, @newcampushq, menyoroti bahwa menemukan keseimbangan antara inovasi dan etika adalah tantangan yang kompleks. Sementara akun lainnya, @OpeningAI, menilai bahwa mendorong kebebasan intelektual dalam AI adalah langkah berani, tetapi tetap menciptakan ruang untuk perdebatan yang mungkin sengit terkait masalah netralitas pada topik-topik kontroversial.
Bagi banyak pengamat, langkah ini mencerminkan tren yang lebih luas di Silicon Valley terkait dengan definisi dan implementasi keamanan AI. Pembicaraan tentang etika dalam pengembangan teknologi semakin mendesak, terutama ketika mengingat bahwa alat seperti ChatGPT memiliki kemungkinan untuk mempengaruhi pandangan publik.
Meski langkah ini mungkin meningkatkan kemampuan ChatGPT dalam menyajikan informasi yang lebih beragam dan komprehensif, banyak yang bertanya-tanya apakah perubahan ini akan berhasil dalam menjaga netralitas tanpa menimbulkan konflik. Dengan kebijakan yang lebih terbuka ini, OpenAI berupaya menempatkan perusahaan pada peta teknologi yang mendukung keterbukaan dan toleransi terhadap diskusi yang lebih luas. Ini adalah fase baru dalam evolusi AI yang akan terus dipantau dengan ketat oleh publik dan regulator di seluruh dunia.