Rumah Pendapat Adakah yang bisa melindungi kita dari deepfake? | ben dickson

Adakah yang bisa melindungi kita dari deepfake? | ben dickson

Daftar Isi:

Video: Al Quds Pemersatu Kita | Tim Nasyid Waed | Nasyid Palestina 2018 (Oktober 2024)

Video: Al Quds Pemersatu Kita | Tim Nasyid Waed | Nasyid Palestina 2018 (Oktober 2024)
Anonim

Pada akhir 2017, Motherboard melaporkan teknologi AI yang dapat bertukar wajah dalam video. Pada saat itu, teknologi tersebut - yang kemudian disebut deepfakes - menghasilkan hasil yang kasar dan kasar dan sebagian besar digunakan untuk membuat video porno palsu yang menampilkan selebriti dan politisi.

Dua tahun kemudian, teknologinya telah maju pesat dan sulit dideteksi dengan mata telanjang. Seiring dengan berita palsu, video palsu telah menjadi masalah keamanan nasional, terutama ketika pemilihan presiden 2020 semakin dekat.

Sejak deepfake muncul, beberapa organisasi dan perusahaan telah mengembangkan teknologi untuk mendeteksi video yang dirusak AI. Tetapi ada ketakutan bahwa suatu hari, teknologi deepfakes tidak mungkin terdeteksi.

Para peneliti di University of Surrey mengembangkan solusi yang dapat memecahkan masalah: alih-alih mendeteksi apa yang salah, itu akan membuktikan apa yang benar. Dijadwalkan untuk dipresentasikan pada Konferensi Visi Komputer dan Pengenalan Pola (CVPR) yang akan datang, teknologi yang disebut Archangel, menggunakan AI dan blockchain untuk membuat dan mendaftarkan sidik jari digital anti-perusakan untuk video otentik. Sidik jari dapat digunakan sebagai titik rujukan untuk memverifikasi validitas media yang didistribusikan secara online atau disiarkan di televisi.

Menggunakan AI untuk Menandatangani Video

Cara klasik untuk membuktikan keaslian dokumen biner adalah dengan menggunakan tanda tangan digital. Penerbit menjalankan dokumen mereka melalui algoritma kriptografi seperti SHA256, MD5, atau Blowfish, yang menghasilkan "hash, " string pendek byte yang mewakili konten file itu dan menjadi tanda tangan digitalnya. Menjalankan file yang sama melalui algoritma hashing kapan saja akan menghasilkan hash yang sama jika isinya belum berubah.

Hash super sensitif terhadap perubahan dalam struktur biner dari file sumber. Ketika Anda memodifikasi satu byte dalam file hash dan menjalankannya melalui algoritma lagi, itu menghasilkan hasil yang sama sekali berbeda.

Tetapi sementara hash bekerja dengan baik untuk file teks dan aplikasi, mereka menghadirkan tantangan untuk video, yang dapat disimpan dalam format yang berbeda, menurut John Collomosse, profesor penglihatan komputer di University of Surrey dan pimpinan proyek untuk Archangel.

"Kami ingin tanda tangannya tetap sama terlepas dari codec videonya yang sedang dikompresi, " kata Collomosse. "Jika saya mengambil video saya dan mengonversinya dari, katakanlah, MPEG-2 ke MPEG-4, maka file itu akan memiliki panjang yang sama sekali berbeda, dan bit-bit akan benar-benar berubah, yang akan menghasilkan hash yang berbeda. Apa yang kami butuhkan adalah algoritma hashing konten-sadar."

Untuk mengatasi masalah ini, Collomosse dan rekan-rekannya mengembangkan jaringan saraf yang dalam yang sensitif terhadap konten yang terkandung dalam video. Deep neural networks adalah jenis konstruksi AI yang mengembangkan perilakunya melalui analisis sejumlah besar contoh. Menariknya, jaringan saraf juga merupakan teknologi di jantung deepfakes.

Saat membuat deepfake, pengembang memberi makan jaringan dengan gambar wajah subjek. Jaringan saraf mempelajari fitur-fitur wajah dan, dengan pelatihan yang cukup, menjadi mampu menemukan dan bertukar wajah di video lain dengan wajah subjek.

Jaringan saraf Archangel dilatih pada video tentang sidik jarinya. "Jaringan lebih melihat konten video daripada bit dan byte yang mendasarinya, " kata Collomosse.

Setelah pelatihan, ketika Anda menjalankan video baru melalui jaringan, itu akan memvalidasinya ketika berisi konten yang sama dengan video sumber terlepas dari formatnya dan akan menolaknya ketika itu adalah video yang berbeda atau telah dirusak atau diedit.

Menurut Collomosse, teknologi ini dapat mendeteksi gangguan spasial dan temporal. Kerusakan spasial adalah perubahan yang dilakukan pada frame individu, seperti pengeditan wajah yang dilakukan dalam deepfake.

Tapi deepfake bukan satu-satunya cara video dapat dirusak. Yang kurang dibahas tetapi sama berbahayanya adalah perubahan yang disengaja dilakukan pada urutan frame dan ke kecepatan dan durasi video. Baru-baru ini, video yang dirusak beredar luas Speaker House Nancy Pelosi tidak menggunakan deepfake tetapi diciptakan melalui penggunaan teknik editing sederhana yang hati-hati membuatnya bingung.

"Salah satu bentuk gangguan yang dapat kami deteksi adalah penghapusan segmen pendek video. Ini adalah kerusakan sementara. Dan kami dapat mendeteksi hingga tiga detik gangguan. Jadi, jika video panjangnya beberapa jam dan Anda hanya perlu menghapus tiga detik dari video itu, kita dapat mendeteksi itu, "kata Collomosse, menambahkan bahwa Archangel juga akan mendeteksi perubahan yang dibuat terhadap kecepatan video asli, seperti yang dilakukan dalam video Pelosi.

Mendaftarkan Sidik Jari di Blockchain

Komponen kedua dari proyek Archangel adalah blockchain, basis data anti-perusakan tempat informasi baru dapat disimpan tetapi tidak diubah - ideal untuk arsip video, yang tidak membuat perubahan pada video setelah didaftarkan.

Teknologi Blockchain mendasari mata uang digital seperti Bitcoin dan Ether. Ini adalah buku besar digital yang dikelola oleh beberapa pihak independen. Mayoritas pihak harus menyetujui perubahan yang dibuat pada blockchain, yang membuat tidak mungkin bagi satu partai untuk secara sepihak mencampuri dengan buku besar.

Secara teknis dimungkinkan untuk menyerang dan mengubah konten blockchain jika lebih dari 50 persen pesertanya berkolusi. Namun dalam praktiknya, ini sangat sulit, terutama ketika blockchain dikelola oleh banyak pihak independen dengan berbagai tujuan dan minat.

Blockchain Archangel sedikit berbeda dari blockchain publik. Pertama, itu tidak menghasilkan cryptocurrency dan hanya menyimpan pengidentifikasi, sidik jari yang sadar konten, dan hash biner dari jaringan saraf verifier untuk setiap video dalam arsip (blockchains tidak cocok untuk menyimpan sejumlah besar data, itulah sebabnya video itu sendiri dan jaringan saraf disimpan off-chain).

Juga, ini merupakan blockchain yang diizinkan atau "pribadi". Ini berarti bahwa tidak seperti Bitcoin blockchain, di mana setiap orang dapat merekam transaksi baru, hanya pihak yang diijinkan yang dapat menyimpan catatan baru di blockchain Archangel.

Archangel saat ini sedang diujicobakan oleh jaringan arsip pemerintah nasional dari Inggris, Estonia, Norwegia, Australia, dan AS: Untuk menyimpan informasi baru, setiap negara yang terlibat harus menanggung tambahan. Tetapi sementara hanya arsip nasional negara-negara yang berpartisipasi memiliki hak untuk menambahkan catatan, semua orang telah membaca akses ke blockchain dan dapat menggunakannya untuk memvalidasi video lain terhadap arsip.

  • AI dan Machine Learning Exploit, Deepfakes, Sekarang Lebih Sulit Mendeteksi AI dan Machine Learning Exploit, Deepfakes, Sekarang Lebih Sulit Untuk Mendeteksi
  • Video Deepfake ada di sini, dan kami tidak siap Video Deepfake ada di sini, dan kami tidak siap
  • Adobe AI Baru Mendeteksi Wajah Photoshopped Adobe AI Baru Mendeteksi Wajah Photoshopped

"Ini adalah aplikasi blockchain untuk kebaikan publik, " kata Collomosse. "Dalam pandangan saya, satu-satunya penggunaan yang wajar dari blockchain adalah ketika Anda memiliki organisasi independen yang tidak perlu saling mempercayai satu sama lain, tetapi mereka memiliki kepentingan pribadi dalam tujuan kolektif rasa saling percaya ini. Dan yang ingin kami lakukan adalah mengamankan arsip pemerintah nasional di seluruh dunia, sehingga kami dapat menjamin integritas mereka menggunakan teknologi ini."

Karena membuat video palsu menjadi lebih mudah, lebih cepat, dan lebih mudah diakses, semua orang akan membutuhkan semua bantuan yang mereka dapat untuk memastikan integritas arsip video mereka - terutama pemerintah.

"Saya pikir deepfake hampir seperti perlombaan senjata, " kata Collomosse. "Karena orang-orang memproduksi deepfake yang semakin meyakinkan, dan suatu hari nanti mungkin menjadi tidak mungkin untuk mendeteksi mereka. Itulah sebabnya yang terbaik yang dapat Anda lakukan adalah mencoba membuktikan asal-usul sebuah video."

Adakah yang bisa melindungi kita dari deepfake? | ben dickson