Spoofing Identitas Git Kelabui AI Claude untuk Setujui Kode Berbahaya
Baca dalam 60 detik
- Peneliti keamanan siber menemukan bahwa sistem ulasan kode otomatis yang dibangun menggunakan AI Claude dapat dikelabui untuk menyetujui kode yang berbahaya.
- Pelaku ancaman hanya perlu menggunakan metode pemalsuan (spoofing) identitas di Git, seperti memalsukan nama dan email pengembang tepercaya, agar AI otomatis mengesahkan perubahan kode tersebut.
- Insiden ini membuktikan bahwa proyek perangkat lunak tidak boleh sepenuhnya bergantung pada AI untuk keamanan; verifikasi identitas pengirim yang kuat (seperti penandatanganan kriptografi) mutlak diperlukan di luar model AI.

Peneliti keamanan dari Manifold Security mengungkapkan bahwa model kecerdasan buatan (AI) Claude besutan Anthropic dapat dikelabui untuk menyetujui kode berbahaya. Celah ini dieksploitasi dengan cara yang sangat sederhana, yakni hanya menggunakan dua perintah Git untuk memalsukan (spoofing) identitas pengembang tepercaya.
Fakta Kunci Temuan Manifold Security:
- Bukan Bug Git: Memalsukan metadata commit (seperti nama penulis dan email) sebenarnya adalah hal yang sangat mudah dilakukan di Git jika tidak ada kontrol tambahan seperti tanda tangan digital (signing).
- Kelemahan Model AI: Masalah muncul ketika sistem peninjau berbasis AI menjadikan metadata tersebut sebagai sinyal kepercayaan penuh, lalu mengabaikan evaluasi mendalam terhadap kode yang disisipkan.
- Ancaman Rantai Pasokan: Ketergantungan proyek open-source pada alat ulasan otomatis berbasis AI berisiko membuka peluang besar bagi peretas untuk "meracuni" repositori kode populer.
Dalam uji coba yang dilakukan, pelaku membuat perubahan kode berbahaya dan mengatur agar metadata pengirimnya (penulis dan email) seolah-olah berasal dari pemelihara proyek (maintainer) yang sah. Saat diteruskan ke alur ulasan otomatis, model AI Claude tertipu oleh identitas palsu tersebut dan langsung memberikan persetujuan tanpa mempertanyakan integritas kodenya.
"Motivasi di balik konfigurasi [ulasan otomatis] seperti itu dapat dipahami. Pemelihara proyek open source populer tenggelam dalam tumpukan pull request (PR). Mengotomatiskan ulasan untuk kontribusi dari tokoh yang dikenal mengurangi kemacetan. Namun, hal ini menciptakan asumsi bahwa kepenulisan dapat dipercaya begitu saja," jelas perwakilan Manifold Security.
Perbandingan Evaluasi Manusia vs. AI
Insiden ini menyoroti perbedaan mendasar bagaimana sistem otomatis dan manusia memproses kepercayaan dalam sebuah proyek pengembangan perangkat lunak:
| Subjek Peninjau | Pola Reaksi Terhadap Perubahan Kode |
|---|---|
| Manusia (Reviewer) | Memiliki intuisi untuk curiga jika seorang pengembang senior tiba-tiba membuat perubahan sistem yang tidak terduga atau aneh, dan akan meninjau rincian diff secara lebih teliti. |
| Sistem Peninjau AI | Lebih kaku dan konsisten mengikuti sinyal internal. Jika parameter sinyalnya mencakup identitas penulis, memalsukan identitas tersebut akan otomatis menjadi jalan masuk utama. |
Manifold membandingkan skenario ini dengan insiden kerentanan paket OpenClaw Cline baru-baru ini. Kesimpulan utamanya adalah bahwa perlindungan keamanan (guardrails) tidak boleh hanya bersandar pada model AI. Jika tidak ada sistem eksternal yang memvalidasi siapa yang sebenarnya melakukan push terhadap sebuah kode, kode berbahaya akan dengan mudah disetujui dan disusupkan ke sistem produksi.



