Anthropic Kenalkan AI Pencari Bug Super Canggih, Namun Dinilai Terlalu Berbahaya untuk Publik
Baca dalam 60 detik
- Anthropic menciptakan model AI baru bernama Claude Mythos Preview yang sangat mahir mendeteksi kelemahan atau bug pada perangkat lunak, termasuk celah berusia puluhan tahun yang sebelumnya tak terdeteksi manusia.
- AI ini dinilai terlalu berbahaya jika jatuh ke tangan peretas, sehingga Anthropic menolak merilisnya untuk umum dan hanya memberikannya kepada perusahaan raksasa (seperti Microsoft, Google, dan Apple) melalui Project Glasswing.
- Proyek ini bertujuan agar para teknisi keamanan siber selangkah lebih maju dari penjahat siber. Anthropic juga menggelontorkan dana kredit hingga 100 juta dolar AS untuk menunjang program tersebut.

Anthropic mengumumkan inisiatif terbarunya yang bertajuk Project Glasswing. Proyek ini memberikan akses eksklusif kepada sejumlah perusahaan teknologi dan keuangan raksasa untuk menggunakan Claude Mythos Preview, sebuah model kecerdasan buatan (AI) mutakhir yang dirancang khusus untuk memburu celah keamanan pada perangkat lunak, namun dinilai terlalu berbahaya untuk dirilis ke publik secara umum.
Fakta Kunci Project Glasswing & Claude Mythos:
- Kemampuan Ekstrem: Claude Mythos Preview mampu menemukan ribuan kerentanan zero-day tingkat tinggi secara otonom. AI ini bahkan berhasil menemukan bug berusia 27 tahun di sistem OpenBSD dan kerentanan berusia 16 tahun di FFmpeg.
- Akses Sangat Terbatas: Anthropic tidak akan merilis AI ini secara umum. Akses hanya diberikan kepada mitra terpilih seperti Amazon, Apple, Cisco, Google, JPMorgan Chase, dan Microsoft untuk memperkuat infrastruktur mereka sebelum peretas memiliki teknologi serupa.
- Dukungan Finansial: Perusahaan mengalokasikan hingga $100 juta dalam bentuk kredit penggunaan untuk proyek ini, ditambah donasi langsung sebesar $4 juta kepada kelompok keamanan sumber terbuka (open-source).
Langkah Anthropic ini didasarkan pada perlombaan melawan waktu. AI kini telah mencapai titik di mana kemampuannya melampaui para spesialis manusia terbaik dalam menemukan dan mengeksploitasi kerentanan keamanan pada kode. Anthropic berargumen bahwa pendekatan yang paling bertanggung jawab saat ini adalah memberikan para pembela keamanan siber selangkah lebih maju (early lead).
"Kami tidak berencana membuat Claude Mythos Preview tersedia secara umum karena kemampuan keamanan sibernya. Mengingat tingkat kemajuan AI, tidak butuh waktu lama sebelum kemampuan tersebut menyebar, berpotensi hingga ke aktor-aktor yang tidak berkomitmen untuk menggunakannya secara aman. Dampaknya bagi ekonomi, keselamatan publik, dan keamanan nasional bisa sangat parah," ujar Newton Cheng, Frontier Red Team Cyber Lead di Anthropic.
Perbandingan Performa AI Claude Mythos Preview vs Opus 4.6
Selain menemukannya, masalah yang jauh lebih menantang adalah mengelola ribuan laporan bug setelah sistem AI menghasilkannya. Anthropic membangun jalur triase khusus agar tidak membebani para pengelola proyek sumber terbuka. Berikut adalah perbandingan ketajaman analitik model baru ini melawan generasi sebelumnya (Claude Opus 4.6):
| Uji Tolak Ukur (Benchmark) | Claude Mythos Preview | Claude Opus 4.6 |
|---|---|---|
| CyberGym (Deteksi Kerentanan) | 83,1% | 66,6% |
| SWE-bench Verified (Tugas Pemrograman) | 93,9% | 80,8% |
| SWE-bench Pro (Tugas Pemrograman Tingkat Lanjut) | 77,8% | 53,4% |
Peluncuran inisiatif besar ini terjadi bersamaan dengan sorotan terhadap praktik keamanan internal Anthropic itu sendiri. Baru-baru ini, kesalahan konfigurasi sistem sempat membuat draf blog dan 3.000 aset internal dapat dicari secara publik. Terdapat juga masalah pengemasan npm yang secara tidak sengaja mengungkap kode sumber asli Claude Code. Meski demikian, Cheng menegaskan bahwa kedua insiden tersebut adalah murni kesalahan manusia (human error) pada sistem penerbitan, dan tidak melibatkan kebocoran pada arsitektur inti AI mereka.



