Tautan-tautan Akses

AI Bantu Kenali Audio Deepfake di Tengah Ancaman Disinformasi Pemilu


FILE - Suasana di sekitar hotel di Davos Promenade, Swiss, 15 Januari 2024. Kecerdasan buatan meningkatkan ancaman disinformasi pemilu di seluruh dunia, memudahkan siapa pun untuk membuat konten palsu namun meyakinkan, yang ditujukan untuk membodohi pemilih. (Markus Schreiber/AP)
FILE - Suasana di sekitar hotel di Davos Promenade, Swiss, 15 Januari 2024. Kecerdasan buatan meningkatkan ancaman disinformasi pemilu di seluruh dunia, memudahkan siapa pun untuk membuat konten palsu namun meyakinkan, yang ditujukan untuk membodohi pemilih. (Markus Schreiber/AP)

Audio deepfake telah digunakan untuk mencoba mempengaruhi pemilih dalam pemilu tahun ini. Matt Dibble dari VOA melaporkan bagaimana kecerdasan buatan (artificial intelligence/AI) dapat membantu mendeteksi suara sintetis.

Kemampuan untuk membuat pesan suara sintetis atau suara artifisial, yang dikenal sebagai deepfake, kini dapat dijangkau oleh siapa saja yang memiliki koneksi internet. Dengan lebih dari 50 negara menyelenggarakan pemilu tahun ini, berbagai upaya untuk mendeteksi disinformasi dengan menggunakan deepfake semakin ditingkatkan sebelum menyebabkan kerugian.

Sarah Barrington meneliti audio deepfake di University of California, Berkeley.
“Kami hanya perlu mengambil beberapa data dari Anda,” sebutnya.

Hanya dalam beberapa menit, dia telah mengkloning (membuat tiruan) suara reporter VOA Matt Dibble dengan menggunakan layanan online dan membuat pernyataan singkat versi palsu.

“Anda yang sebenarnya terdengar seperti ini…,” kata Sarah Barrington.

“Ini adalah kalimat pengujian yang saya gunakan untuk membedakan dengan yang asli…,” komentar Matt Dibble.

AI Bantu Kenali Audio Deepfake di Tengah Ancaman Disinformasi Pemilu
mohon tunggu

No media source currently available

0:00 0:02:53 0:00

“Dan kemudian kami memiliki versi palsu suara Anda di sini…,” imbuh Sarah,

“Ini adalah kalimat pengujian yang saya gunakan untuk membedakan dengan yang asli…,” kata Dibble.

“Sungguh luar biasa. Apa yang mulai kami lakukan adalah memasukkannya ke dalam komputer dan melihat bentuk gelombang serta kebisingan sinyal dan mulai menyimpulkan perbedaannya,” imbuh Sarah Barrington

Beberapa petunjuk terlihat jelas secara visual oleh mata yang terlatih, seperti jeda yang cenderung dilakukan manusia.

Sarah Barrington, peneliti forensik digital menjelaskan, “Secara umum, ada lebih banyak jeda seperti ini dalam keadaan nyata dibandingkan dengan jeda dalam keadaan palsu.”

Gambar yang dibuat dengan menggunakan AI oleh Eliot Higgins menunjukkan pertempuran fiktif Donald Trump dengan polisi New York, 23 Maret 2023. (J. David Ake/AP)
Gambar yang dibuat dengan menggunakan AI oleh Eliot Higgins menunjukkan pertempuran fiktif Donald Trump dengan polisi New York, 23 Maret 2023. (J. David Ake/AP)

Barrington juga menganalisis suara sintetis menggunakan AI yang dilatih untuk mengenali suara palsu. “Pola AI ini sangat jelas, dan bisa berupa artefak yang sangat kecil dan halus yang tidak dapat kita dengar,” jelasnya.

Tetapi jika yang palsu dibuat menggunakan sistem yang tidak dikenal, maka...

“Kemudian AI akan kesulitan memahami apa yang harus dilakukan dengan hal itu. Ini mungkin tidak menunjukkan pola yang sama persis seperti yang ditunjukkan oleh pemalsuan sebelumnya,” lanjut Sarah.

Barrington mengatakan deteksi, meskipun berhasil, mungkin terlambat untuk menghentikan postingan viral, dan perusahaan media sosial serta penggunanya harus lebih terlibat dalam mengurangi penyebaran konten yang mungkin palsu. “Kami sedang menuju solusi yang sebagian bersifat teknis tetapi juga sebagian berkaitan dengan perubahan dalam masyarakat dan aktivitas para pembuat kebijakan,” imbuhnya.

Memang, kita semua mempunyai peran untuk ikut mendeteksi deepfake dan tidak ikut menyebarkannya. [lt/ka]

Forum

XS
SM
MD
LG