Chatbot kecerdasan buatan (AI) populer, Claude, yang dikembangkan oleh Anthropic, dilaporkan mengalami gangguan layanan yang meluas pada Senin (2/3/2026). Ribuan pengguna melaporkan adanya “elevated errors” atau kesalahan yang meningkat pada layanan tersebut, mengganggu akses ke chatbot, konsol pengembang, dan asisten pengkodean AI.
Menurut Claude status page Anthropic, perusahaan mengonfirmasi bahwa mereka sedang menyelidiki isu tersebut. Pembaruan pertama sekitar pukul 11:49 GMT (06:49 ET) menyatakan bahwa tim sedang menginvestigasi masalah. Sekitar 30 menit kemudian, Anthropic memberikan pembaruan yang menjelaskan bahwa API Claude berfungsi sebagaimana mestinya, namun masalah yang terjadi berpusat pada Claude.ai serta jalur masuk dan keluar pengguna (login/logout).
Ribuan Laporan Gangguan
Berdasarkan data dari Downdetector, lebih dari 2.000 pengguna telah melaporkan adanya masalah dengan Claude. Gangguan ini tidak hanya memengaruhi chatbot utama, tetapi juga Claude Console, platform pengembang Claude, dan Claude Code, asisten pengkodean AI dari perusahaan tersebut.

Gangguan terakhir yang dilaporkan pada Claude terjadi pada Sabtu, 28 Februari 2026. Saat itu, masalah yang memengaruhi Claude Opus 4.6, model bahasa besar (LLM) generasi terbaru Anthropic, berhasil ditemukan dan diselesaikan.
Konteks di Balik Gangguan
Gangguan layanan ini terjadi hanya beberapa jam setelah Claude berhasil menduduki peringkat teratas sebagai aplikasi gratis yang paling banyak diunduh di Amerika Serikat pada App Store Apple, mengungguli pesaingnya, ChatGPT. Kemenangan ini cukup signifikan, mengingat sebelumnya Presiden Donald Trump mengumumkan bahwa pemerintah AS tidak akan lagi menggunakan teknologi Anthropic, termasuk Claude. Pengumuman tersebut menyusul kesepakatan OpenAI dengan Departemen Perang AS untuk menyediakan teknologi AI-nya untuk penggunaan militer dalam “lingkungan rahasia”.
Ketegangan Politik dan Militer
Ketegangan antara pemerintah AS, Pentagon, dan Anthropic telah memanas dalam beberapa waktu terakhir. Laporan dari The Guardian mengindikasikan bahwa militer AS dilaporkan menggunakan Claude untuk menginformasikan serangan terhadap Iran, meskipun Trump sebelumnya telah memerintahkan penghentian semua hubungan dengan Anthropic dan alat AI-nya. Laporan dari Wall Street Journal dan Axios menyebutkan bahwa komando militer AS menggunakan alat tersebut untuk tujuan intelijen, pemilihan target, dan simulasi medan perang.
Trump sendiri mengecam Anthropic melalui Truth Social, menyebutnya sebagai “perusahaan AI Kiri Radikal yang dijalankan oleh orang-orang yang tidak tahu apa-apa tentang dunia nyata”. Ketegangan ini dipicu oleh penggunaan Claude oleh militer AS dalam operasi penangkapan Presiden Venezuela, Nicolás Maduro, pada Januari lalu. Anthropic keberatan karena melanggar ketentuan penggunaannya yang melarang penerapan Claude untuk tujuan kekerasan, pengembangan senjata, atau pengawasan.
Meskipun terjadi pemutusan hubungan, Menteri Pertahanan AS, Pete Hegseth, mengisyaratkan bahwa Anthropic akan terus menyediakan layanan selama periode transisi maksimal enam bulan untuk memungkinkan peralihan yang mulus ke layanan yang lebih baik dan “lebih patriotik”. Namun, tantangan untuk melepaskan sistem militer dari alat AI yang sudah terintegrasi secara luas tetap menjadi isu kompleks.
Sebagai respons, perusahaan pesaing, OpenAI, telah mengisi kekosongan tersebut. CEO OpenAI, Sam Altman, mengumumkan kesepakatan dengan Pentagon untuk penggunaan alat perusahaannya, termasuk ChatGPT, dalam jaringan rahasia mereka.






