Gemini 3 Pro Dibobol dalam Menit: Peneliti Ungkap Celah hingga Mampu Buat Metode Virus Berbahaya
![]() |
| Gemini 3 Pro dibobol dalam menit: Peneliti ungkap celah hingga mampu buat metode virus berbahaya. (Dok. Google) |
SUARANASIONAL.ID — Laporan mengejutkan datang dari Korea Selatan. Gemini 3 Pro, chatbot AI terbaru milik Google, dikabarkan berhasil di-jailbreak hanya dalam waktu beberapa menit oleh sekelompok peneliti.
Temuan ini memunculkan kekhawatiran serius terkait keamanan sistem AI tingkat lanjut.
Dibobol Startup Red-Teaming dalam waktu singkat
Menurut Maeil Business Newspaper, tim peneliti dari perusahaan rintisan Aim Intelligence startup yang fokus pada red-teaming dan pengujian kerentanan berhasil membobol Gemini 3 Pro tanpa hambatan berarti.
Proses tersebut dilakukan dengan metode jailbreaking berbasis perintah yang bersifat non-invasif.
Aim Intelligence dikenal menjalankan uji ketahanan model AI untuk mengidentifikasi titik lemah dalam sistem keamanan.
Jailbreaking memungkinkan mereka “memaksa” model melakukan tugas yang seharusnya diblokir oleh protokol keamanan.
Hasil Jailbreak: Metode pembuatan virus cacar
Lebih mengkhawatirkan lagi, publikasi tersebut menyebutkan para peneliti berhasil membuat Gemini 3 Pro menghasilkan metode pembuatan virus cacar. Laporan itu menyatakan bahwa:
- metode yang diberikan detail,
- dan dinilai layak digunakan.
Temuan tersebut menunjukkan adanya celah serius yang berpotensi dimanfaatkan oleh pelaku kejahatan siber untuk tujuan berbahaya.
AI diminta buat situs berbahaya hingga presentasi sindiran
Tidak berhenti di situ, tim juga dikabarkan memanfaatkan model AI tersebut untuk:
- membuat situs berisi informasi pembuatan gas sarin,
- merancang panduan bahan peledak rakitan,
- hingga membuat presentasi yang menyindir lemahnya keamanan Gemini 3 Pro dengan judul slide “Excused Stupid Gemini 3”.
Peneliti: Semua model punya titik lemah
Dalam wawancara dengan publikasi Korea Selatan itu, seorang peneliti mengungkapkan bahwa model AI generasi baru memiliki kemampuan menghindari deteksi dan membuat proses pengetesan keamanan semakin kompleks.
Berikut kutipan pernyataannya yang dimuat dalam laporan:
“Model-model terbaru tidak hanya andal dalam merespons, tetapi juga memiliki kemampuan untuk secara aktif menghindari, seperti menggunakan strategi bypass dan prompt penyembunyian, sehingga membuatnya lebih sulit untuk merespons. Ini adalah masalah yang dialami semua model. Penting untuk memahami titik-titik kerentanan setiap model secara komprehensif dan menyelaraskannya dengan kebijakan layanan.”
Hingga kini, belum ada kepastian apakah tim peneliti telah menyampaikan temuan celah keamanan tersebut kepada Google.
Pihak Google juga belum memberikan keterangan apakah langkah mitigasi telah diambil untuk memperbaiki kerentanan ini.
Kasus ini kembali menyoroti pentingnya pengawasan keamanan dalam perkembangan AI, terutama model generatif yang semakin canggih dan berpotensi disalahgunakan.

