Google Bereksperimen Menggunakan AI untuk Menandai Ancaman Phishing, Hentikan Penipuan

Desti
0

 

(Foto oleh Omer Taha Cetin/Anadolu melalui Getty Images)

Blog Mas Desti - Untuk melihat apakah AI dapat membantu menghentikan serangan siber, Google baru-baru ini menjalankan eksperimen yang menggunakan AI generatif untuk menjelaskan kepada pengguna mengapa pesan phishing ditandai sebagai ancaman.


Pada Konferensi RSA di San Francisco, pemimpin penelitian Google DeepMind Elie Bursztein berbicara tentang eksperimen tersebut untuk menyoroti bagaimana teknologi chatbot AI saat ini dapat membantu perusahaan memerangi ancaman peretasan yang berbahaya. 


Menurut Bursztein, sebagian besar dokumen berbahaya yang saat ini diblokir Gmail, sekitar 70%, berisi teks dan gambar, seperti logo resmi perusahaan, dalam upaya menipu pengguna. 



Perusahaan tersebut bereksperimen menggunakan chatbot Gemini Pro Google , sebuah model bahasa besar , (LLM) untuk melihat apakah mereka dapat mendeteksi dokumen berbahaya. Gemini Pro mampu mendeteksi 91% ancaman phishing, meskipun tertinggal dari program AI terlatih yang memiliki tingkat keberhasilan 99% dan berjalan 100 kali lebih efisien, kata Bursztein.


Oleh karena itu, menggunakan Gemini Pro untuk mendeteksi pesan phishing tampaknya bukan penggunaan LLM yang terbaik. Sebaliknya, AI generatif saat ini unggul dalam menjelaskan mengapa pesan phishing terdeteksi berbahaya, dibandingkan hanya bertindak sebagai pendeteksi email phishing, kata Bursztein.



Sebagai contoh, Bursztein menunjukkan Google LLM menganalisis dokumen PDF berbahaya yang disamarkan sebagai email sah dari PayPal. AI perusahaan dapat menunjukkan bahwa nomor telepon dalam dokumen tersebut tidak cocok dengan nomor dukungan resmi PayPal. Selain itu, AI mencatat bahwa bahasa dalam PDF mencoba menciptakan rasa urgensi, sebuah taktik yang sering digunakan penipu terhadap calon korban.


“Itu memberi Anda contoh di mana menurut saya model ini akan sangat bersinar, yang memberikan kemampuan hampir seperti analis,” kata Bursztein dalam video yang menyertai pembicaraan RSAC-nya.



  

Untuk saat ini, Google hanya bereksperimen dengan kemampuan tersebut, kata Bursztein kepada Garon setelah pembicaraan RSAC-nya. “Kami pikir itu keren untuk ditampilkan. Dan orang-orang sangat menyukainya,” katanya. “Jika itu membuat Anda bersemangat, itulah tujuannya. Tujuannya adalah untuk menunjukkan apa yang mungkin terjadi saat ini dan memberikan contoh kepada orang-orang, hanya itu yang bisa saya katakan. Tidak ada pengumuman produk spesifik.”


Salah satu alasan mengapa Google mungkin menundanya adalah karena menjalankan LLM memerlukan daya komputasi yang besar. Selama pembicaraan di RSAC, presentasi Bursztein mencatat bahwa penggunaan “LM pada skala Gmail [adalah] tidak mungkin dilakukan, tetapi bagus untuk skala kecil.”


Selain memerangi ancaman phishing, Google juga menyelidiki apakah AI generatif dapat digunakan untuk menemukan dan secara otomatis menambal kerentanan dalam kode perangkat lunak. Namun sejauh ini, penelitian perusahaan menemukan bahwa LLM kesulitan dalam mendeteksi kerentanan, kata Bursztein. Dia mengaitkan hal ini dengan data pelatihan yang “berisik” dan penuh variabel, sehingga menyulitkan LLM untuk mengidentifikasi sifat sebenarnya dari kelemahan perangkat lunak. 


Untuk menggarisbawahi hal ini, Bursztein mengatakan Google menjalankan eksperimen internal tahun lalu, yang melibatkan penggunaan LLM untuk menambal 1.000 bug perangkat lunak C++. Namun, model tersebut hanya berhasil menambal 15% kerentanan. Dalam kasus lain, model melakukan hal sebaliknya dan memasukkan kode yang merusak program atau mengakibatkan masalah lain. 


Di sisi positifnya, Bursztein mengatakan LLM berkinerja baik dalam membantu pekerja manusia menghasilkan laporan respons insiden dengan cepat ketika serangan siber terdeteksi dalam jaringan. Eksperimen internal perusahaan menemukan bahwa teknologi AI generatif dapat mempercepat penulisan laporan sebesar 51% dibandingkan laporan insiden awal yang didasarkan pada draf yang dibuat oleh model bahasa besar.






Tags:

Posting Komentar

0Komentar

Posting Komentar (0)