Perubahan ini menuntut evolusi dalam pendekatan keamanan. Red teaming tradisional yang mengandalkan proses manual dan kreativitas manusia kini tidak lagi cukup.
Webinar memperkenalkan konsep AI-Augmented Red Teaming, yaitu penggunaan AI generatif untuk:
- Mensimulasikan serangan berbasis AI secara realistis
- Mempercepat dan memperluas skala pengujian
- Mengungkap blind spot pada model keamanan yang terlalu berfokus pada manusia
Perbandingan yang ditunjukkan sangat jelas:
- Reconnaissance manual (berhari-hari) → Intelijen otomatis (menit)
- Phishing generik → Umpan sangat terpersonalisasi
- Payload statis → Malware yang dibuat secara dinamis
Studi Kasus Praktis: AI dalam Operasi Offensive Security
Webinar ini sangat kaya akan contoh nyata dari lapangan, di antaranya:
1. Intel & Reconnaissance Berbasis AI
AI digunakan untuk menganalisis data publik seperti repositori GitHub, dokumen bocor, rilis pers, hingga profil LinkedIn. Dengan prompt yang tepat, LLM mampu merangkum:
- Tech stack target
- Personnel kunci
- Kerentanan terbaru
- Titik masuk potensial
Hasilnya: insight yang actionable dalam waktu singkat—sesuatu yang sebelumnya memakan waktu lama bagi red team.
2. Phishing & Social Engineering
AI mampu menghasilkan email phishing yang:
- Mengacu pada aktivitas terbaru korban
- Menggunakan bahasa, tone, dan konteks budaya yang tepat
- Memanfaatkan persona palsu yang terlihat sangat meyakinkan
Efektivitas pendekatan ini terbukti, dengan rasio klik yang dilaporkan hingga 3x lebih tinggi dibanding phishing generik (Proofpoint, 2025)
3. Code Analysis & Exploit Assistance
AI juga digunakan untuk:
- Mendeteksi kerentanan dalam codebase
- Membuat PoC exploit berdasarkan CVE
- Menjelaskan kode kompleks atau ter-obfuscate
Contoh yang dibahas termasuk identifikasi SQL Injection pada aplikasi Python Flask hanya melalui analisis prompt.
Sisi Lain yang Tak Boleh Diabaikan: Menyerang Sistem AI Anda Sendiri
Salah satu poin krusial dalam webinar ini adalah pengingat bahwa sistem AI juga merupakan attack surface baru. Topik seperti:
- Prompt injection (langsung dan tidak langsung)
- Training data poisoning
- Model inversion
- Risiko supply chain LLM
menjadi bagian dari risiko baru yang dirangkum dalam OWASP Top 10 for LLMs. Artinya, organisasi tidak hanya harus melindungi sistem tradisional, tetapi juga mengamankan AI yang mereka gunakan
Etika, Guardrails, dan Penggunaan yang Bertanggung Jawab
Toni menekankan bahwa offensive AI adalah pedang bermata dua. Penggunaannya harus dibingkai oleh prinsip yang jelas, antara lain:
- Otorisasi eksplisit dan scope tertulis
- Minimisasi data sensitif
- Penyaringan output berbahaya
- Audit trail atas seluruh interaksi AI
Webinar juga merekomendasikan referensi kebijakan seperti NIST AI RMF, EU AI Act, ISO/IEC 23894, serta adopsi framework seperti MITRE ATLAS untuk red teaming AI
Kesimpulan: Berpikir Seperti Attacker untuk Bertahan sebagai Defender
Webinar Offensive AI: Red Teaming di Era Generative Models menjelaskan satu hal penting:
AI ofensif bukan ancaman masa depan, ia sudah ada hari ini.
Organisasi yang ingin tetap resilien harus:
- Mengadopsi AI-augmented red teaming
- Mengasumsikan attacker memiliki akses ke AI yang sama canggihnya
- Menanamkan etika dan guardrails dalam setiap operasi keamanan
Seperti disampaikan dalam penutup sesi:
“Di era AI generatif, batas antara defender dan attacker semakin kabur. Agar tetap unggul, cobalah berpikir seperti keduanya.”


