JAKARTA, Titik Kumpul – Pesatnya perkembangan sistem kecerdasan buatan (AI) di ranah publik mengakibatkan banyak digunakan oleh individu dan dunia usaha.
Sistem ini sangat mudah beradaptasi dengan berbagai tugas, termasuk pembuatan konten dan masukan bahasa alami.
Namun, pendekatan ini telah membuka peluang bagi pelaku ancaman siber untuk menggunakan AI dalam serangan yang canggih.
Pelaku ancaman dunia maya dapat menggunakan AI untuk mengotomatisasi serangan, mempercepat operasi rutin, dan melakukan operasi yang lebih kompleks untuk mencapai tujuan mereka.
AI adalah alat yang ampuh
Kaspersky mencatat beberapa cara penjahat dunia maya menggunakan AI:
1. ChatGPT dapat digunakan untuk menulis malware dan melakukan serangan otomatis terhadap banyak pengguna. 2. Program kecerdasan buatan dapat merekam masukan pengguna dari ponsel cerdas dengan menganalisis data sensor akselerometer, atau menangkap pesan teks, sandi, dan kode bank. 3. Swarm Intelligence dapat mengotomatiskan botnet yang berkomunikasi satu sama lain untuk memulihkan jaringan yang disusupi setelah kerusakan.
Kaspersky juga baru-baru ini melakukan studi komprehensif lainnya tentang penggunaan AI untuk memecahkan kata sandi.
Kebanyakan kata sandi disimpan dalam bentuk terenkripsi dengan fungsi hashing kriptografi seperti MD5 dan SHA.
Meskipun mudah untuk mengubah kata sandi teks biasa menjadi string terenkripsi, membalikkan prosesnya adalah sebuah tantangan.
Sayangnya, kebocoran basis data kata sandi terjadi dari waktu ke waktu, berdampak pada perusahaan kecil dan pemimpin teknologi.
Pada bulan Juli 2024, kumpulan kata sandi terbesar hingga saat ini dipublikasikan secara online, berisi sekitar 10 miliar baris dengan 8,2 miliar kata sandi unik.
“Kami menganalisis pelanggaran data besar-besaran ini dan menemukan bahwa 32 persen kata sandi pengguna tidak cukup kuat dan dapat dipulihkan dari bentuk hash yang dienkripsi menggunakan algoritma brute force dan GPU modern 4090 dalam waktu kurang dari 60 menit,” kata Alexei Antonov. Kepala Ilmuwan Informasi Kaspersky.
Ia menerima pelatihan pola bahasa dalam database kata sandi dan mencoba memeriksa kata sandi dengan metode AI yang diperoleh.
Oleh karena itu, Kaspersky menemukan bahwa 78 persen kata sandi dapat dibobol dengan cara ini, yaitu sekitar tiga kali lebih cepat dibandingkan menggunakan algoritma brute force.
“Hanya 7 persen dari password tersebut yang cukup kuat untuk menahan serangan jangka panjang,” jelasnya.
Rekayasa sosial dengan AI
AI juga dapat digunakan untuk rekayasa sosial untuk membuat konten rasional termasuk teks, gambar, audio, dan video.
Pelaku ancaman dunia maya dapat menggunakan model bahasa besar seperti ChatGPT-4o untuk membuat pesan yang menipu seperti pesan phishing yang canggih.
Phishing yang dihasilkan AI dapat mengatasi hambatan bahasa dan membuat email yang dipersonalisasi berdasarkan profil media sosial pengguna.
Itu juga bisa meniru tulisan tangan orang tertentu, membuat serangan phishing lebih sulit dideteksi.
Deepfake menghadirkan tantangan keamanan siber lainnya. Apa yang dulunya hanya penelitian ilmiah kini menjadi masalah yang meluas. Penjahat dunia maya telah menipu banyak orang dengan penipuan peniruan identitas, sehingga menyebabkan kerugian finansial yang besar.
Deepfake juga digunakan untuk mencuri akun pengguna dan mengirim permintaan uang menggunakan suara pemilik akun kepada teman dan kerabat.
Penipuan percintaan yang canggih melibatkan penjahat dunia maya yang membuat identitas palsu dan menghubungi korban di situs kencan.
Serangan paling canggih terjadi pada bulan Februari di Hong Kong, di mana penipu melakukan simulasi konferensi video menggunakan deepfake untuk menyamar sebagai eksekutif perusahaan, meyakinkan staf keuangan untuk mentransfer sekitar $25 juta.
Kelemahan AI
Selain menggunakan AI untuk tujuan jahat, penyerang juga dapat menyerang algoritma AI itu sendiri.
Serangan siber ini meliputi:
1. Serangan injeksi cepat dalam model bahasa besar, di mana penyerang meminta untuk melewati batas perintah sebelumnya. 2. Serangan yang berhubungan dengan perhitungan pembelajaran mesin, dimana informasi yang disembunyikan dalam gambar atau suara dapat membingungkan AI dan menyebabkannya mengambil keputusan yang salah.