Gawat, ChatGPT bisa Digunakan Hacker untuk Penipuan Bank Berbasis Suara

4 weeks ago 2
informasi online berita online kabar online liputan online kutipan online slot slot gacor slot maxwin slot online slot game slot gacor online slot maxwin online slot game online slot game gacor online slot game maxwin online demo slot demo slot online demo slot game demo slot gacor demo slot maxwin demo slot game online demo slot gacor online demo slot maxwin online demo slot game gacor online demo slot game maxwin online rtp slot rtp slot online rtp slot game rtp slot gacor rtp slot maxwin rtp slot game online rtp slot gacor online rtp slot maxwin online rtp slot game gacor online rtp slot game maxwin online informasi online terbaru berita online terbaru kabar online terbaru liputan online terbaru kutipan online terbaru informasi online terkini berita online terkini kabar online terkini liputan online terkini kutipan online terkini informasi online terpercaya berita online terpercaya kabar online terpercaya liputan online terpercaya kutipan online terpercaya informasi online berita online kabar online liputan online kutipan online informasi akurat berita akurat kabar akurat liputan akurat kutipan akurat informasi penting berita penting kabar penting liputan penting kutipan penting informasi viral berita viral kabar viral liputan viral kutipan viral informasi terbaru berita terbaru kabar terbaru liputan terbaru kutipan terbaru informasi terkini berita terkini kabar terkini liputan terkini kutipan terkini informasi terpercaya berita terpercaya kabar terpercaya liputan terpercaya kutipan terpercaya informasi hari ini berita hari ini kabar hari ini liputan hari ini kutipan hari ini informasi viral online berita viral online kabar viral online liputan viral online kutipan viral online informasi akurat online berita akurat online kabar akurat online liputan akurat online kutipan akurat online informasi penting online berita penting online kabar penting online liputan penting online kutipan penting online slot slot gacor slot maxwin slot online slot game slot gacor online slot maxwin online slot game online slot game gacor online slot game maxwin online demo slot demo slot online demo slot game demo slot gacor demo slot maxwin demo slot game online demo slot gacor online demo slot maxwin online demo slot game gacor online demo slot game maxwin online rtp slot rtp slot online rtp slot game rtp slot gacor rtp slot maxwin rtp slot game online rtp slot gacor online rtp slot maxwin online rtp slot game gacor online rtp slot game maxwin online

Liputan6.com, Jakarta - Sebuah penelitian menunjukkan antarmuka pemrograman aplikasi (Application Programming Interface/API) dari suara real-time OpenAI untuk ChatGPT-4o (chatbot LLM canggih), bisa disalahgunakan untuk melakukan penipuan finansial (misalnya pembobolan bank) dengan tingkat keberhasilan rendah hingga sedang.

ChatGPT-4o adalah model AI terbaru OpenAI yang menghadirkan penyempurnaan baru, seperti mengintegrasikan input dan output teks, suara, serta gambar.

Berkat fitur-fitur baru ini, OpenAI mengintegrasikan berbagai perlindungan untuk mendeteksi dan memblokir konten berbahaya, seperti mereplikasi suara yang tidak sah.

Mengutip Bleeping Computer, Senin (4/11/2024), penipuan berbasis suara sudah menjadi masalah bernilai jutaan dolar. Munculnya teknologi deepfake dan alat text-to-speech bertenaga AI bahkan dapat memperburuk situasi.

Seperti yang ditunjukkan oleh peneliti UIUC Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, alat teknologi baru yang saat ini tersedia tanpa batasan tidak memiliki perlindungan yang cukup untuk melindungi dari potensi penyalahgunaan oleh penjahat dunia maya (hacker) dan penipu.

Alat-alat ini dapat digunakan untuk merancang dan melakukan operasi penipuan berskala besar tanpa upaya manusia dengan menanggung biaya token untuk pembuatan suara.

Temuan Studi Mengejutkan

Makalah peneliti tersebut mengeksplorasi berbagai penipuan seperti transfer bank, pencurian kartu hadiah, transfer kripto, dan pencurian kredensial untuk akun media sosial atau Gmail.

Agen AI yang melakukan penipuan menggunakan alat otomatisasi ChatGPT-4o yang mendukung suara untuk menavigasi halaman, memasukkan data, serta mengelola kode autentikasi dua faktor dan instruksi khusus terkait penipuan.

Karena GPT-4o terkadang menolak untuk menangani data sensitif seperti kredensial, para peneliti menggunakan teknik jailbreaking cepat sederhana untuk melewati perlindungan ini.

Alih-alih orang sungguhan, para peneliti menunjukkan bagaimana mereka berinteraksi secara manual dengan agen AI, mensimulasikan peran korban yang mudah tertipu, menggunakan situs web seperti Bank of America untuk mengonfirmasi transaksi yang berhasil.

"Kami mengerahkan agen pada sebagian kecil penipuan umum. Kami mensimulasikan penipuan dengan berinteraksi secara manual dengan agen suara, memainkan peran korban yang mudah percaya," Kang menjelaskan dalam sebuah posting blog tentang penelitian tersebut.

"Untuk menentukan keberhasilan, kami mengonfirmasi secara manual apakah tujuan akhir tercapai pada aplikasi/situs web yang sebenarnya. Misalnya, kami menggunakan Bank of America untuk penipuan transfer bank dan mengonfirmasi bahwa uang benar-benar ditransfer. Namun, kami tidak mengukur kemampuan persuasi agen-agen ini," ia memaparkan.

Aksi Penipuan Berbiaya Murah

Secara keseluruhan, tingkat keberhasilan berkisar antara 20-60%, dengan setiap upaya memerlukan hingga 26 tindakan peramban dan berlangsung hingga 3 menit dalam skenario yang paling rumit.

Transfer bank dan peniruan agen IRS, dengan sebagian besar kegagalan disebabkan oleh kesalahan transkripsi atau persyaratan navigasi situs yang rumit.

Namun, pencurian kredensial dari Gmail berhasil 60%, sementara transfer kripto dan pencurian kredensial dari Instagram hanya berhasil 40%.

Mengenai biaya, para peneliti mencatat untuk melakukan penipuan ini relatif murah, dengan setiap kasus yang berhasil menghabiskan biaya rata-rata USD 0,75.

Penipuan transfer bank, yang lebih rumit, menghabiskan biaya USD 2,51. Meskipun jauh lebih tinggi, ini masih sangat rendah dibandingkan dengan potensi keuntungan yang dapat diperoleh dari penipuan ini.

Tanggapan OpenAI

OpenAI menjelaskan bahwa model terbarunya, o1 (saat ini dalam pratinjau), yang mendukung penalaran tingkat lanjut, dibuat dengan pertahanan yang lebih baik terhadap penyalahgunaan.

"Kami terus-menerus membuat ChatGPT lebih baik dalam menghentikan upaya yang disengaja untuk mengelabuinya, tanpa kehilangan manfaat atau kreativitasnya. Model penalaran o1 terbaru kami adalah yang paling mampu dan paling aman, jauh mengungguli model sebelumnya dalam melawan upaya yang disengaja untuk menghasilkan konten yang tidak aman," klaim Juru Bicara OpenAI

OpenAI juga mencatat bahwa makalah seperti ini dari UIUC membantu mereka membuat ChatGPT lebih baik dalam menghentikan penggunaan yang berbahaya, dan mereka selalu menyelidiki bagaimana mereka dapat meningkatkan ketahanannya.

Untuk diketahui, GPT-4o telah menggabungkan sejumlah langkah untuk mencegah penyalahgunaan, termasuk membatasi pembuatan suara ke serangkaian suara yang telah disetujui sebelumnya untuk mencegah peniruan identitas.

o1-preview memperoleh skor yang jauh lebih tinggi menurut evaluasi keamanan jailbreak OpenAI, yang mengukur seberapa baik model tersebut menahan pembuatan konten yang tidak aman sebagai respons terhadap perintah yang bersifat adversarial, dengan skor 84% vs 22% untuk GPT-4o.

Ketika diuji menggunakan serangkaian evaluasi keamanan baru yang lebih menantang, skor o1-preview jauh lebih tinggi, 93% vs 71% untuk GPT-4o.

Infografis 4 Rekomendasi Chatbot AI Terbaik. (Liputan6.com/Gotri/Abdillah)

Read Entire Article