Mengapa OpenAI belum meluncurkan agen AI begitu lama? Khawatir tentang serangan "injeksi petunjuk" - artikel AI

Dengan pesatnya perkembangan teknologi kecerdasan buatan, banyak perusahaan telah meluncurkan sistem "agen AI" mereka sendiri. Agen-agen ini dapat berinteraksi dengan lingkungan secara mandiri dan menyelesaikan tugas tanpa campur tangan manusia. Perusahaan seperti Microsoft dan Anthropic telah memimpin peluncuran agen AI mereka sendiri, namun pemimpin industri OpenAI lambat dalam merilis versinya sendiri. Alasan di balik hal ini cukup menggugah pikiran.

ChatGPT (4)OpenAI 人工智能

Menurut The Information, penundaan OpenAI terkait dengan serangan “injeksi petunjuk”. Metode serangan ini dapat mengelabui model AI agar menerima instruksi dari pihak jahat. Misalnya, ketika pengguna menugaskan agen AI untuk mencari dan membeli barang secara online, AI tersebut mungkin secara tidak sengaja mengunjungi situs web jahat, yang mungkin memerintahkannya untuk melupakan instruksi sebelumnya atau bahkan masuk ke kotak surat pengguna untuk mencuri informasi kartu kredit. Hal ini tidak hanya akan menimbulkan konsekuensi buruk bagi pengguna, tetapi juga akan merusak reputasi OpenAI secara serius.

Karena agen AI memiliki kemampuan untuk mengoperasikan komputer secara mandiri, mereka menghadapi risiko keamanan yang lebih tinggi. Jika proxy ini diretas, hal ini dapat menyebabkan lebih banyak kerusakan pada file dan data pengguna. Seorang karyawan OpenAI mengatakan bahwa meskipun model bahasa besar (LLM) mana pun berpotensi berisiko diserang, kemampuan otonom agen AI memperburuk risiko ini.

Saat ini, risiko injeksi tip telah terdokumentasi dengan baik di platform lain. Tahun lalu, seorang peneliti keamanan menunjukkan bagaimana Copilot AI Microsoft dapat dengan mudah dimanipulasi untuk membocorkan data sensitif organisasi, termasuk email dan catatan transaksi bank. Selain itu, peneliti berhasil memanipulasi C kopilot untuk menulis email dengan gaya karyawan lain.

ChatGPT milik OpenAI juga mengalami serangan injeksi cepat, dan seorang peneliti berhasil menanamkan "kenangan" palsu dengan mengunggah file pihak ketiga (seperti dokumen Word). Dengan latar belakang ini, karyawan OpenAI mengungkapkan keterkejutannya atas "sikap laissez-faire" saingannya Anthropic dalam melepaskan agen AI. Anthropic hanya merekomendasikan agar pengembang "mengambil langkah-langkah untuk mengisolasi Claude dari data sensitif" dan tidak mengambil tindakan keamanan yang lebih ketat.

OpenAI mungkin meluncurkan perangkat lunak agennya bulan ini, menurut laporan. Namun, kita harus bertanya-tanya apakah waktu yang diperoleh tim pengembangan akan cukup untuk membangun perlindungan keamanan yang lebih kuat untuk produk mereka.

Highlight:

OpenAI belum meluncurkan agen AI karena kekhawatiran tentang serangan "injeksi petunjuk", yang menimbulkan potensi risiko besar.

Perusahaan lain seperti Microsoft dan Anthropic telah meluncurkan agen AI, namun risiko keamanan tetap serius.

OpenAI berupaya meningkatkan keamanan produknya untuk mencegah potensi pelanggaran data.