Wired pada 3 April 2026 ngelaporkan bahwa Meta mengentikan sementara semua proyek sama Mercor, perusahaan yang ngumpulin dan bikin dataset khusus buat latih model-model besar. Sebabnya: Mercor kena insiden keamanan dan banyak lab AI sekarang lagi ngecek apakah data mereka juga ikut kena. OpenAI belum berhenti kerja sama tapi ikut ngejalanin investigasi, sementara Anthropic dan lainnya lagi nimbang-nimbang.
Mercor dikenal sebagai vendor yang pake jaringan kontraktor buat bikin data anonim yang cuma bisa diakses lab tertentu. Karena data itu bisa ngasih clue soal resep pelatihan (apa tagihan prompt-nya, gimana data diverifikasi), bocornya jadi prioritas tinggi—layaknya resep rahasia dapur restoran bintang lima.
Insiden itu juga ngelonjakin kepercayaan kontraktor: proyek Meta di-suspend, jadi mereka nggak bisa ngisi jam kerja sampai proyeknya balik jalan. Info internal nunjukin kalau tim Chordus (program buat bikin AI ngecek banyak sumber internet) harus nge-skop ulang karena Mercor lagi diaudit.
Ada indikasi grup peretasan TeamPCP yang baru-baru ini kompromikan dua versi LiteLLM, API AI open-source, bikin attacker bisa liat perusahaan apa aja yang make tool itu. Jadi bukan cuma cerita Mercor—mereka juga lagi ngecek alat lain yang dipakai buat ngeksekusi data sensitif.
Intinya: kalau kamu lagi kerja dengan vendor data AI, jangan cuma fokus ke model cool-nya. Pertanyaan pertama harusnya: seberapa kuat security-nya? Karena kalo suppliernya bocor, semua effort kontrol dan privasi bisa kebalik. Sekarang banyak lab lagi ngecek ulang kontrak, dan sebagian lagi bahkan nge-pause proyek demi kasih waktu audit tuntas.
Sumber: WIRED — “Meta Pauses Work With Mercor After Data Breach Puts AI Industry Secrets at Risk” (3 April 2026).