Kebocoran keamanan yang menyasar Mercor, supplier data yang dipakai Meta, OpenAI, Anthropic, dan lab lain, bikin industri AI sadar: kalau vendor data-nya kena, rahasia strategi pelatihan bisa bocor ke kompetitor. Wired tanggal 3 April 2026 menyebut Meta menunda kerja sama sambil menyelidiki sejauh mana dataset dan prompt pelatihan mereka terdampak. OpenAI belum menghentikan kerja sama sepenuhnya, namun kini turut memeriksa apakah data pelanggannya tetap aman—dan Anthropic juga mempertimbangkan langkah serupa.

Mercor menarik perhatian karena mereka mengerjakan konten pelatihan dengan jaringan kontraktor manusia yang menghasilkan dataset bespoke. Kalau dataset ini bocor, pesaing bisa melihat pola prompt, distribusi label, dan filter keamanan yang belum diumumkan—cukup untuk membantu pihak lain meniru atau meraba-raba kelemahan. Hal ini membuat lab-lab sadar bahwa kontrol tidak hanya soal model yang dijalankan, tetapi juga siapa yang memegang data pelatihan.

Yang juga memperumit: para kontraktor Mercor yang mengerjakan proyek-proyek Meta tiba-tiba tidak bisa mengisi jam kerja karena proyek ditangguhkan. Mereka punya kontrak harian dan sekarang harus menunggu hingga audit selesai. Kecuali Mercor menyediakan proyek pengganti, mereka tidak punya penghasilan sampai proses tersebut selesai.

Selain Mercor, serangan terhadap rantai pasok lain juga muncul—kelompok peretas TeamPCP baru-baru ini berhasil mengompromikan dua versi LiteLLM, API AI open-source. Pelanggaran itu menunjukkan target mereka bukan hanya data mentah, tetapi juga jejak siapa yang memakai tooling tersebut, dan ini bisa mengungkap strategi pelatihan serta riset masing-masing lab.

Yang bisa dicatat: respons lab-lab ini bukan hanya soal penangguhan dan audit. Mereka mulai mempertimbangkan kontrak dengan vendor data yang memiliki bukti keamanan kuat, meminta logging lengkap, serta menyiapkan vendor cadangan jika satu titik putus. Karena di dunia AI, yang membuat model berisiko bukan selalu peretas—kadang vendor yang datanya bocor duluan. Kalau kamu sedang membangun produk AI, sekarang waktunya menanyakan kepada pemasok data: langkah apa yang mereka ambil agar dataset tetap rahasia, siapa yang bisa mengaksesnya, dan bagaimana mereka merespons jika terjadi insiden? Kunci keamanan masa depan ada di ujung rantai pasok.

Sumber: WIRED — “Meta Pauses Work With Mercor After Data Breach Puts AI Industry Secrets at Risk” (3 April 2026).