Anthropic tengah dalam mode darurat. Saat berusaha menarik kembali instruksi internal untuk AI agent Claude Code, perusahaan tanpa sengaja memublikasikan file .map di npm, yang membuka sekitar setengah juta baris kode, termasuk panduan prompt, mekanisme orchestration, dan pipeline evaluasi unutk Claude. Bocoran ini langsung viral: developer mengkloningnya, menerjemahkan ke bahasa lain, dan mempelajari bagaimana Anthropic mengatur agent-agentnya (TechCrunch, Futurism, Ars Technica).
Reaksi Anthropic: DMCA, komunikasi, dan clarifikasi
Perusahaan memulai serangkaian pengajuan DMCA ke GitHub untuk meminta penghapusan repositori yang menampung kode tersebut; jumlah notice sempat mencapai lebih dari 8.100 repo—termasuk fork resmi mereka sendiri—sehingga banyak di timeline yang balik memulihkan karena terjadi "accident" (PYMNTS, PCMag). Head of Claude Code Boris Cherny menjelaskan bahwa ini adalah kesalahan manusia dalam pipeline deployment, tetapi tetap menegaskan Anthropic perlu mengevaluasi ulang kontrol rilisnya (Times of India). Sementara itu, beberapa komunitas membuka diskusi baru tentang apakah leak ini memperlihatkan intangible knowledge (seperti mode "Undercover" yang diperintahkan prompt) sehingga merusak strategi proprietary Anthropic.
Risiko bisnis & reputasi menjelang IPO
Bocoran itu terjadi saat Anthropic bersiap IPO; regulator dan investor sekarang menyalakan lampu kuning—meski Anthropic menyebut kejadian ini tidak mengancam keamanan data, reputasi dihadapkan pada dua blunder dalam satu minggu (Futurism, TechCrunch). Kode yang bocor memperlihatkan arsitektur "agent swarm" dan 44 feature flags (The Neuron, Ars Technica), sehingga pesaing bisa menjiplak detail orchestration dan toolchain tanpa perlu melakukan reverse engineering panjang. Beberapa developer bahkan memanfaatkan kesempatan ini untuk menulis ulang fungsi Claude Code ke bahasa lain dan menjaga versi publik agar tetap bisa ditelusuri (PYMNTS, TheTimesOfIndia).
Apa langkah ke depan?
1. Perketat pipeline rilis – tim software engineering perlu meninjau automasi build & deploy sehingga artefak sensitif tidak pernah ikut terunggah ke npm atau repositori publik. Praktik yang sama ditindaklanjuti oleh beberapa perusahaan (CNBC, Bloomberg) yang kini memaksa validasi manual sebelum publish.
2. Kontrol distribusi alternatif – Anthropic melanjutkan komunikasi ke mitra enterprise bahwa Claude Code release adalah "human error" dan tidak merepresentasikan model inti; mereka juga mengerahkan tim keamanan untuk memantau clones yang beredar (Moneycontrol, TechStrong).
3. Navigasi regulasi & IPO – kejadian ini memperingatkan startup AI lain tentang pentingnya audit kode, dokumentasi release, dan strategi mitigasi kebocoran. Anthropic bisa saja menggunakan insiden ini sebagai bukti bahwa mereka "bereaksi cepat," tetapi investor tetap ingin melihat perubahan manajemen risiko konkret (PYMNTS, Bloomberg).
Catatan untuk developer & researcher
Kalau kamu sedang mengerjakan agen AI atau CLI sejenis Claude Code, perhatikan: kode yang bocor memperlihatkan bagaimana Anthropic menyeimbangkan prompt manusiawi dengan rule-based monitoring (Ars Technica, TheNeuron). Kamu bisa belajar dari struktur tersebut tanpa harus meniru verbatim—fokus pada prinsip orchestration (agent ranking, retrieval, safety filters) daripada isi promptnya. Tetap pantau repositori resmi; kalau kamu melihat distribusi serial code, laporkan ke GitHub agar developer bisa mengambil langkah hukum yang relevan.
Sumber: TechCrunch (1 April 2026), Futurism (31 Maret 2026), Ars Technica (1 April 2026), PYMNTS (1 April 2026), PCMag (1 April 2026), Times of India (1-2 April 2026), CNBC (31 Maret 2026), Bloomberg (1 April 2026), The Neuron (2 April 2026), TechStrong (1 April 2026), Moneycontrol (1 April 2026), The Times of India (2 April 2026).