Rumah Bisnis Ai dan pembelajaran mesin mengeksploitasi, deepfakes, sekarang lebih sulit untuk dideteksi

Ai dan pembelajaran mesin mengeksploitasi, deepfakes, sekarang lebih sulit untuk dideteksi

Daftar Isi:

Video: Eminem Deepfake Song | Mark Zuckerberg Diss | MUSIC VIDEO (Desember 2024)

Video: Eminem Deepfake Song | Mark Zuckerberg Diss | MUSIC VIDEO (Desember 2024)
Anonim

Saat kita memasuki musim kampanye pemilihan presiden berikutnya, Anda harus berhati-hati terhadap potensi bahaya yang ditimbulkan oleh video online palsu melalui penggunaan kecerdasan buatan (AI) dan pembelajaran mesin (ML). Menggunakan perangkat lunak AI, orang dapat membuat video deepfake (kependekan dari "deep learning and fake") di mana algoritma ML digunakan untuk melakukan pertukaran wajah untuk menciptakan ilusi bahwa seseorang mengatakan sesuatu yang tidak mereka katakan atau seseorang yang mereka ' tidak. Video Deepfake muncul di berbagai arena, dari hiburan hingga politik hingga dunia usaha. Tidak hanya dapat membuat video secara tidak adil memengaruhi pemilihan dengan pesan palsu, tetapi mereka juga dapat mempermalukan pribadi atau menyebabkan pesan merek yang menyesatkan jika, misalnya, mereka memperlihatkan CEO mengumumkan peluncuran produk atau akuisisi yang sebenarnya tidak terjadi.

Deepfakes adalah bagian dari kategori AI yang disebut "Generative Adversarial Networks" atau GANs, di mana dua jaringan saraf bersaing untuk membuat foto atau video yang tampak nyata. GAN terdiri dari generator, yang membuat set data baru seperti video palsu, dan diskriminator, yang menggunakan algoritma ML untuk mensintesis dan membandingkan data dari video nyata. Generator terus berusaha mensintesis video palsu dengan yang lama sampai pembeda tidak dapat mengatakan bahwa datanya baru.

Seperti Steve Grobman, Senior Vice President dan Chief Technology Officer (CTO) McAfee, tunjukkan pada Konferensi RSA 2019 pada bulan Maret di San Francisco, foto-foto palsu telah ada sejak penemuan fotografi. Dia mengatakan mengubah foto merupakan tugas sederhana yang dapat Anda lakukan dalam aplikasi seperti Adobe Photoshop. Tapi sekarang jenis kemampuan pengeditan canggih ini juga beralih ke video, dan mereka melakukannya dengan menggunakan perangkat lunak yang sangat mumpuni dan mudah diakses.

Bagaimana Deepfakes Diciptakan

Meskipun memahami konsep AI sangat membantu, tidak perlu menjadi ilmuwan data untuk membuat video deepfake. Itu hanya melibatkan mengikuti beberapa instruksi online, menurut Grobman. Pada Konferensi RSA 2019 (lihat video di atas), ia meluncurkan video deepfake bersama dengan Dr. Celeste Fralick, Kepala Ilmuwan Data dan Insinyur Kepala Senior di McAfee. Video deepfake menggambarkan ancaman yang disajikan teknologi ini. Grobman dan Fralick menunjukkan bagaimana seorang pejabat publik dalam sebuah video mengatakan sesuatu yang berbahaya dapat menyesatkan publik untuk menganggap pesan itu nyata.

Untuk membuat video mereka, Grobman dan Fralick mengunduh perangkat lunak deepfake. Mereka kemudian mengambil video Grobman yang memberikan kesaksian di hadapan Senat AS pada tahun 2017 dan menempelkan mulut Fralick ke Grobman.

"Saya menggunakan komentar publik yang tersedia secara bebas dengan membuat dan melatih model ML; itu memungkinkan saya mengembangkan video mendalam dengan kata-kata saya keluar dari mulut, " kata Fralick kepada audiens RSA dari panggung. Fralick melanjutkan dengan mengatakan bahwa video deepfake dapat digunakan untuk eksploitasi sosial dan perang informasi.

Untuk membuat video deepfake mereka, Grobman dan Fralick menggunakan alat yang dikembangkan oleh pengguna Reddit bernama FakeApp, yang menggunakan algoritma dan foto ML untuk bertukar wajah pada video. Selama presentasi RSA mereka, Grobman menjelaskan langkah selanjutnya. "Kami membagi video menjadi gambar diam, kami mengekstraksi wajah, dan kami membersihkannya dengan menyortirnya dan membersihkannya di Instagram."

Skrip Python memungkinkan tim McAfee untuk membangun gerakan mulut agar pidato Fralick sesuai dengan mulut Grobman. Kemudian mereka perlu menulis beberapa skrip khusus. Tantangan dalam menciptakan deepfake yang meyakinkan adalah ketika karakteristik seperti jenis kelamin, usia, dan warna kulit tidak cocok, kata Grobman.

Dia dan Fralick kemudian menggunakan algoritma AI final untuk mencocokkan gambar Grobman bersaksi di depan Senat dengan pidato Fralick. Grobman menambahkan bahwa butuh 12 jam untuk melatih algoritma ML ini.

McAfee menguraikan langkah-langkah yang diperlukan untuk membuat video deepfake yang ditampilkan pada Konferensi RSA 2019. Itu menggunakan perangkat lunak deepfake yang disebut FakeApp dan pelatihan model ML untuk mengubah video Grobman dengan pidato dari Fralick. (Kredit gambar: McAfee).

Konsekuensi Deepfakes

Video deepfake yang dibuat oleh peretas berpotensi menyebabkan banyak masalah - mulai dari pejabat pemerintah yang menyebarkan informasi yang keliru hingga selebritas yang dipermalukan karena berada di video yang sebenarnya tidak ada di dalamnya hingga perusahaan yang merusak kedudukan pasar saham pesaing. Sadar akan masalah ini, anggota parlemen pada bulan September mengirim surat kepada Daniel Coats, Direktur Intelijen Nasional AS, untuk meminta peninjauan terhadap ancaman yang ditimbulkan oleh deepfake. Surat itu memperingatkan bahwa negara-negara seperti Rusia dapat menggunakan deepfake di media sosial untuk menyebarkan informasi palsu. Pada bulan Desember, anggota parlemen memperkenalkan Malicious Deep Fake Prohibition Act 2018 untuk melarang penipuan sehubungan dengan "rekaman audiovisual, " yang merujuk pada deepfakes. Masih harus dilihat apakah RUU itu akan disahkan.

Seperti yang disebutkan, selebritas dapat dipermalukan dari video di mana wajah mereka ditumpangkan di atas wajah bintang porno, seperti halnya dengan Gal Gadot. Atau bayangkan CEO yang seharusnya mengumumkan berita produk dan menenggelamkan saham perusahaan. Profesional keamanan dapat menggunakan ML untuk mendeteksi jenis serangan ini, tetapi jika mereka tidak terdeteksi pada waktunya, mereka dapat membawa kerusakan yang tidak perlu ke suatu negara atau merek.

"Dengan deepfakes, jika Anda tahu apa yang Anda lakukan dan Anda tahu siapa yang harus ditargetkan, Anda dapat benar-benar membuat video yang meyakinkan untuk menyebabkan banyak kerusakan pada sebuah merek, " kata Dr. Chase Cunningham, Kepala Analis di Forrester Research. Dia menambahkan bahwa, jika Anda mendistribusikan pesan-pesan ini di LinkedIn atau Twitter atau menggunakan formulir bot, "Anda dapat menghancurkan stok perusahaan berdasarkan total video palsu tanpa banyak upaya."

Melalui video deepfake, konsumen dapat diperdaya untuk meyakini bahwa suatu produk dapat melakukan sesuatu yang tidak dapat dilakukannya. Cunningham mencatat bahwa, jika CEO pabrikan mobil besar mengatakan dalam video palsu bahwa perusahaan tidak akan lagi memproduksi kendaraan bertenaga gas dan kemudian menyebarkan pesan itu di Twitter atau LinkedIn di video itu, maka tindakan itu dapat dengan mudah merusak merek.

"Cukup menarik dari penelitian saya, orang membuat keputusan berdasarkan tajuk berita dan video dalam 37 detik, kata Cunningham." Jadi, Anda bisa bayangkan jika Anda bisa mendapatkan video yang berjalan lebih dari 37 detik, Anda bisa membuat orang membuat keputusan berdasarkan apakah faktual atau tidak. Dan itu menakutkan."

Karena media sosial adalah tempat yang rentan di mana video deepfake dapat menjadi viral, situs media sosial secara aktif bekerja untuk memerangi ancaman deepfake. Facebook, misalnya, menyebarkan tim teknik yang dapat menemukan foto, audio, dan video yang dimanipulasi. Selain menggunakan perangkat lunak, Facebook (dan perusahaan media sosial lainnya) mempekerjakan orang untuk mencari deepfake secara manual.

"Kami telah memperluas upaya kami yang berkelanjutan untuk memerangi media yang dimanipulasi untuk mencakup penanganan deepfake, " kata seorang perwakilan Facebook dalam sebuah pernyataan. "Kami tahu kemunculan terus menerus dari semua bentuk media yang dimanipulasi menghadirkan tantangan nyata bagi masyarakat. Itulah sebabnya kami berinvestasi dalam solusi teknis baru, belajar dari penelitian akademis, dan bekerja dengan orang lain di industri untuk memahami deepfake dan bentuk lain dari media yang dimanipulasi."

Tidak Semua Deepfakes Buruk

Seperti yang telah kita lihat dengan video deepfake edukasi oleh McAfee dan video deepfake komedi di TV larut malam, beberapa video deepfake tidak selalu buruk. Bahkan, sementara politik dapat mengekspos bahaya nyata dari video deepfake, industri hiburan sering hanya menunjukkan sisi video deepfake yang lebih ringan.

Misalnya, dalam episode terbaru The Late Show With Stephen Colbert, sebuah video deepfake yang lucu ditampilkan di mana wajah aktor Steve Buscemi ditumpangkan di atas tubuh aktris Jennifer Lawrence. Dalam kasus lain, komedian Jordan Peeler mengganti video mantan Presiden Barack Obama yang berbicara dengan suaranya sendiri. Video deepfake lucu seperti ini juga telah muncul online, di mana wajah Presiden Trump ditumpangkan di atas wajah Kanselir Jerman Angela Merkel ketika orang tersebut berbicara.

Sekali lagi, jika video deepfake digunakan untuk tujuan satir atau lucu atau hanya sebagai hiburan, maka platform media sosial dan bahkan rumah produksi film mengizinkan atau menggunakannya. Misalnya, Facebook mengizinkan jenis konten ini di platformnya, dan Lucasfilm menggunakan jenis rekreasi digital untuk menampilkan Carrie Fisher muda pada tubuh aktris Ingvild Deila dalam "Rogue One: A Star Wars Story."

McAfee's Grobman mencatat bahwa beberapa teknologi di balik deepfakes dimanfaatkan dengan baik dengan aksi ganda dalam pembuatan film untuk menjaga aktor tetap aman. "Konteks adalah segalanya. Jika ini untuk tujuan komedi dan jelas bahwa itu tidak nyata, itu adalah sesuatu yang merupakan penggunaan teknologi yang sah, " kata Grobman. "Mengakui bahwa itu dapat digunakan untuk segala macam tujuan berbeda adalah kuncinya."

(Kredit gambar: Statista)

Cara Mendeteksi Video Deepfake

McAfee bukan satu-satunya perusahaan keamanan yang bereksperimen dengan cara mendeteksi video palsu. Dalam makalahnya yang disampaikan di Black Hat 2018 berjudul, "AI Gone Rogue: Membasmi Kepalsuan Sebelum Mereka Menyebabkan Menace, " dua pakar keamanan Symantec, Pimpinan Respons Keamanan Vijay Thaware dan Insinyur Pengembangan Perangkat Lunak Niranjan Agnihotri, menulis bahwa mereka telah membuat alat untuk menemukan video palsu berdasarkan Google FaceNet. Google FaceNet adalah arsitektur jaringan saraf yang dikembangkan peneliti Google untuk membantu verifikasi dan pengakuan wajah. Pengguna melatih model FaceNet pada gambar tertentu dan kemudian dapat memverifikasi identitas mereka selama pengujian sesudahnya.

Untuk mencoba menghentikan penyebaran video deepfake, AI Foundation, sebuah organisasi nirlaba yang berfokus pada interaksi manusia dan AI, menawarkan perangkat lunak yang disebut "Reality Defender" untuk menemukan konten palsu. Itu dapat memindai gambar dan video untuk melihat apakah mereka telah diubah menggunakan AI. Jika sudah, mereka akan mendapatkan "Tanda Air AI Jujur."

  • Panduan Bisnis untuk Pembelajaran Mesin Panduan Bisnis untuk Pembelajaran Mesin
  • PornHub, Twitter Larangan 'Deepfake' AI-Modified Pornhub PornHub, Twitter Larangan 'Deepfake' AI-Modified Porn
  • Deepfake Tech Terbaru Akan Membuat Anda Menari Seperti Bruno Mars Terbaru Deepfake Tech Akan Membuat Anda Menari Seperti Bruno Mars

Strategi lain adalah dengan tetap mengingat konsep Zero Trust, yang berarti "jangan pernah percaya, selalu verifikasi" - moto keamanan dunia maya yang berarti bahwa profesional TI harus memastikan semua pengguna sah sebelum memberikan hak akses. Masih skeptis terhadap validitas konten video akan diperlukan. Anda juga akan menginginkan perangkat lunak dengan kemampuan analitik digital untuk menemukan konten palsu.

Mencari Outfakes

Ke depan, kita harus lebih berhati-hati dengan konten video dan mengingat bahaya yang dapat mereka hadapi kepada masyarakat jika disalahgunakan. Seperti dicatat Grobman, "Dalam waktu dekat, orang perlu lebih skeptis terhadap apa yang mereka lihat dan sadari bahwa video dan audio dapat dibuat-buat."

Jadi, awasi video politik yang Anda tonton saat kita memasuki musim pemilihan berikutnya, dan jangan percayai semua video yang menampilkan para pemimpin perusahaan. Karena apa yang Anda dengar mungkin bukan apa yang sebenarnya dikatakan, dan video deepfake menyesatkan berpotensi merusak masyarakat kita.

Ai dan pembelajaran mesin mengeksploitasi, deepfakes, sekarang lebih sulit untuk dideteksi