Selular.ID – Anthropic menuduh tiga laboratorium AI asal China, DeepSeek, Moonshot AI, dan MiniMax, memanfaatkan Claude AI untuk melatih model kecerdasan buatan mereka secara ilegal.
Disebut dengan distillation, aksi tersebut biasanya dimaksudkan untuk melatih model yang lebih kecil dan efisien berdasarkan keluaran model yang lebih canggih.
Namun, jika teknik tersebut disalahgunakan untuk menyalin kemampuan model pesaing dengan biaya dan waktu yang jauh lebih rendah dibanding pengembangan mandiri, aktivitas tersebut dinilai melanggar ketentuan layanan.
Dalam pengumuman resminya, Anthropic menyebut ketiga laboratorium tersebut menghasilkan lebih dari 16 juta interaksi dengan Claude melalui sekitar 24 ribu akun palsu.
Anthropic menyoroti bahwa model hasil distilasi ilegal berpotensi tidak memiliki sistem pengaman (safeguards) penting.
Menurutnya, model tanpa perlindungan tersebut dapat dimanfaatkan dalam sistem militer, intelijen, hingga pengawasan massal.
Risiko semakin besar jika model yang telah didistilasi kemudian dirilis sebagai open-source, sehingga kemampuannya menyebar tanpa kendali.
DeepSeek tercatat melakukan lebih dari 150 ribu interaksi, dengan fokus pada kemampuan reasoning dan pembuatan alternatif jawaban yang “aman sensor”.
Baca juga:
- DeepSeek Kantongi Restu Beijing, Siap Borong Chip AI Nvidia H200
- Enam Aktivitas yang Kerap Dilakukan Pengguna OpenAI dengan ChatGPT
Sementara Moonshot AI, dilaporkan telah melakukan lebih dari 3,4 juta interaksi, menargetkan reasoning berbasis agen, penggunaan alat (tool use), coding, hingga computer vision.
Sedangkan MiniMax laboratorium tersebut tercatat paling besar, dengan lebih dari 13 juta interaksi, terutama pada kemampuan coding dan orkestrasi tool.
Sebagai respons, Anthropic memperkuat sistem deteksi berbasis classifier dan fingerprinting perilaku untuk mengidentifikasi pola distilasi, termasuk upaya mengekstraksi chain-of-thought reasoning.
Perusahaan juga meningkatkan verifikasi akun pendidikan, program riset keamanan, serta organisasi startup—jalur yang kerap dimanfaatkan untuk membuat akun palsu.
Selain itu, Anthropic menyatakan tengah mengembangkan pengamanan pada level produk, API, dan model guna mengurangi efektivitas keluaran model untuk tujuan distilasi ilegal, tanpa mengganggu pengalaman pengguna sah.


















































