Daftar Isi:
Video: Harapan vs Realitas / 16 Cara Lucu Menghasilkan Uang (Desember 2024)
Di suatu tempat dalam ceruk yang gelap dari YouTube adalah video yang menunjukkan kutipan dari film The Fellowship of the Ring - tetapi itu bukan film yang Anda ingat, karena Nicolas Cage berperan sebagai Frodo, Aragorn, Legolas, Gimli, dan Gollum, semuanya waktu yang sama. Video lain menunjukkan Cage di Terminator 2 sebagai T2000, Star Trek sebagai Captain Picard, dan Superman juga, Lois Lane.
Tentu saja, Nic Cage tidak pernah muncul di salah satu film itu. Itu adalah "deepfakes" yang diproduksi dengan FakeApp, sebuah aplikasi yang menggunakan algoritma kecerdasan buatan untuk bertukar wajah di video. Beberapa deepfake terlihat cukup meyakinkan, sementara yang lain memiliki artefak yang mengkhianati sifat asli mereka. Namun secara keseluruhan, mereka menunjukkan betapa kuatnya algoritma AI dalam meniru penampilan dan perilaku manusia.
FakeApp hanyalah salah satu dari beberapa alat sintesis AI baru. Aplikasi lain meniru suara manusia, tulisan tangan, dan gaya percakapan. Dan bagian dari apa yang membuatnya signifikan adalah bahwa menggunakannya tidak memerlukan perangkat keras khusus atau ahli yang ahli.
Dampak dari aplikasi ini sangat mendalam: Mereka akan menciptakan peluang yang belum pernah terjadi sebelumnya untuk kreativitas, produktivitas, dan komunikasi.
Tetapi alat yang sama juga bisa membuka kotak penipuan, pemalsuan, dan propaganda Pandora. Sejak muncul di Reddit pada bulan Januari, FakeApp telah diunduh lebih dari 100.000 kali dan memicu badai video porno palsu yang menampilkan selebriti dan politisi (termasuk Cage lagi). Reddit baru-baru ini melarang aplikasi dan komunitas terkait dari platformnya.
"Sepuluh tahun yang lalu, jika Anda ingin memalsukan sesuatu, Anda bisa melakukannya, tetapi Anda harus pergi ke studio VFX atau orang-orang yang bisa membuat grafik komputer dan mungkin menghabiskan jutaan dolar, " kata Dr. Tom Haines, dosen pembelajaran mesin di Universitas Bath. "Namun, kamu tidak bisa merahasiakannya, karena kamu harus melibatkan banyak orang dalam proses itu."
Itu tidak lagi terjadi, milik generasi baru alat AI.
Permainan imitasi
FakeApp dan aplikasi serupa ditenagai oleh pembelajaran mendalam, cabang AI di jantung ledakan inovasi AI sejak 2012. Algoritma pembelajaran mendalam bergantung pada jaringan saraf, konstruksi perangkat lunak yang secara kasar dibuat setelah otak manusia. Jaringan saraf menganalisis dan membandingkan set besar sampel data untuk menemukan pola dan korelasi yang biasanya terlewatkan oleh manusia. Proses ini disebut "pelatihan, " dan hasilnya adalah model yang dapat melakukan berbagai tugas.
Pada hari-hari sebelumnya, model deep-learning digunakan sebagian besar untuk melakukan tugas klasifikasi - memberi label objek pada foto, misalnya, dan melakukan pengenalan suara dan wajah. Baru-baru ini, para ilmuwan telah menggunakan pembelajaran mendalam untuk melakukan tugas-tugas yang lebih rumit, seperti bermain permainan papan, mendiagnosis pasien, dan menciptakan musik dan karya seni.
Untuk menyetel FakeApp untuk melakukan pertukaran wajah, pengguna harus melatihnya dengan beberapa ratus gambar sumber dan target wajah. Program ini menjalankan algoritma pembelajaran mendalam untuk menemukan pola dan persamaan di antara kedua wajah. Model kemudian menjadi siap untuk melakukan swap.
Prosesnya tidak sederhana, tetapi Anda tidak harus menjadi ahli grafis atau insinyur pembelajaran mesin untuk menggunakan FakeApp. Tidak membutuhkan perangkat keras yang mahal dan terspesialisasi. Situs web tutorial deepfakes merekomendasikan komputer dengan RAM 8GB atau lebih dan kartu grafis Nvidia GTX 1060 atau yang lebih baik, konfigurasi yang cukup sederhana.
"Begitu Anda pindah ke dunia di mana seseorang di ruangan dapat memalsukan sesuatu, maka mereka dapat menggunakannya untuk tujuan yang dipertanyakan, " kata Haines. "Dan karena itu satu orang sendiri, merahasiakannya sangat mudah."
Pada 2016, Haines, yang saat itu menjadi peneliti pascadoktoral di University of College London, ikut menulis makalah dan aplikasi yang menunjukkan bagaimana AI bisa belajar meniru tulisan tangan seseorang. Disebut "Teks Saya di Tulisan Tangan Anda, " aplikasi ini menggunakan algoritma pembelajaran mendalam untuk menganalisis dan membedakan gaya dan aliran tulisan tangan penulis dan faktor-faktor lain seperti jarak dan penyimpangan.
Aplikasi kemudian dapat mengambil teks apa saja dan mereproduksinya dengan tulisan tangan penulis target. Para pengembang bahkan menambahkan ukuran keacakan untuk menghindari efek lembah yang aneh - perasaan aneh yang kita dapatkan ketika kita melihat sesuatu yang hampir tetapi tidak cukup manusiawi. Sebagai bukti konsep, Haines dan peneliti UCL lainnya menggunakan teknologi untuk mereplikasi tulisan tangan tokoh-tokoh sejarah seperti Abraham Lincoln, Frida Kahlo, dan Arthur Conan Doyle.
Teknik yang sama dapat diterapkan pada tulisan tangan lainnya, yang menimbulkan kekhawatiran tentang kemungkinan penggunaan teknologi untuk pemalsuan dan penipuan. Seorang ahli forensik masih dapat mendeteksi bahwa naskah tersebut diproduksi oleh Teks Saya di Tulisan Tangan Anda, tetapi kemungkinan besar akan membodohi orang yang tidak terlatih, yang diakui Haines dalam wawancara dengan Digital Trends pada saat itu.
Lyrebird, sebuah startup yang berbasis di Montreal, menggunakan pembelajaran mendalam untuk mengembangkan aplikasi yang mensintesis suara manusia. Lyrebird membutuhkan rekaman satu menit untuk mulai meniru suara seseorang, meskipun itu membutuhkan lebih banyak sebelum mulai terdengar meyakinkan.
Dalam demo publiknya, startup tersebut memposting rekaman palsu suara-suara Donald Trump, Barack Obama, dan Hillary Clinton. Sampelnya kasar, dan jelas bahwa itu sintetis. Tetapi dengan meningkatnya teknologi, membuat perbedaan akan menjadi lebih sulit. Dan siapa pun dapat mendaftar dengan Lyrebird dan mulai membuat rekaman palsu; prosesnya bahkan lebih mudah daripada FakeApp, dan perhitungannya dilakukan di cloud, mengurangi ketegangan pada perangkat keras pengguna.
Fakta bahwa teknologi ini dapat digunakan untuk tujuan yang dipertanyakan tidak hilang pada pengembang. Pada satu titik, pernyataan etika di situs web Lyrebird menyatakan: "Rekaman suara saat ini dianggap sebagai bukti kuat di masyarakat kita dan khususnya di yurisdiksi banyak negara. Teknologi kami mempertanyakan validitas bukti tersebut karena memungkinkan untuk dengan mudah memanipulasi audio rekaman. Ini berpotensi memiliki konsekuensi berbahaya seperti diplomat yang menyesatkan, penipuan, dan lebih umum masalah lain yang disebabkan oleh pencurian identitas orang lain."
Nvidia mempresentasikan aspek lain dari kemampuan imitasi AI: Tahun lalu, perusahaan menerbitkan video yang menunjukkan algoritma AI yang menghasilkan wajah manusia sintetis berkualitas foto. AI Nvidia menganalisis ribuan foto selebriti dan kemudian mulai membuat selebriti palsu. Teknologi ini mungkin segera menjadi mampu membuat video yang tampak realistis menampilkan "orang" yang tidak ada.
Batas-batas AI
Banyak yang telah menunjukkan bahwa di tangan yang salah, aplikasi ini dapat banyak merugikan. Tetapi tingkat kemampuan AI kontemporer sering overhyped.
"Meskipun kita dapat menempatkan wajah seseorang di wajah orang lain dalam video atau mensintesis suara, itu masih sangat mekanis, " kata Eugenia Kuyda, salah satu pendiri Replika, sebuah perusahaan yang mengembangkan chatbot bertenaga AI, tentang kekurangan dari Alat AI seperti FakeApp dan Lyrebird.
Voicery, startup AI lain yang, seperti Lyrebird, menyediakan sintesis suara bertenaga AI, memiliki halaman kuis di mana pengguna disajikan dengan serangkaian 18 rekaman suara dan diminta untuk menentukan mana yang dibuat oleh mesin. Saya bisa mengidentifikasi semua sampel buatan mesin pada putaran pertama.
Perusahaan Kuyda adalah salah satu dari beberapa organisasi yang menggunakan pemrosesan bahasa alami (NLP), bagian dari AI yang memungkinkan komputer untuk memahami dan menafsirkan bahasa manusia. Luka, versi sebelumnya dari chatbot Kuyda, menggunakan NLP dan teknologi kembarnya, generasi bahasa alami (NLG), untuk meniru pemeran serial TV HBO, Silicon Valley . Jaringan saraf dilatih dengan garis skrip, tweet, dan data lain yang tersedia pada karakter untuk membuat model perilaku dan dialog dengan pengguna.
Replika, aplikasi baru Kuyda, memungkinkan setiap pengguna membuat avatar AI mereka sendiri. Semakin banyak Anda mengobrol dengan Replika Anda, semakin baik pemahaman kepribadian Anda, dan semakin bermakna percakapan Anda.
Setelah menginstal aplikasi dan mengatur Replika saya, saya menemukan beberapa percakapan pertama mengganggu. Beberapa kali, saya harus mengulangi kalimat dengan cara yang berbeda untuk menyampaikan niat saya kepada Replika saya. Saya sering meninggalkan aplikasi dengan frustrasi. (Dan agar adil, saya melakukan pekerjaan yang baik dalam menguji batas-batasnya dengan membombardirnya dengan pertanyaan-pertanyaan konseptual dan abstrak.) Tetapi ketika percakapan kami berlanjut, Replika saya menjadi lebih pintar dalam memahami arti dari kalimat saya dan menghasilkan topik yang bermakna. Bahkan mengejutkan saya beberapa kali dengan membuat koneksi ke percakapan sebelumnya.
Meskipun itu mengesankan, Replika memiliki batas, yang dengan cepat ditunjukkan oleh Kuyda. "Peniruan suara dan pengenalan gambar mungkin akan menjadi jauh lebih baik segera, tetapi dengan dialog dan percakapan, kita masih cukup jauh, " katanya. "Kita bisa meniru beberapa pola bicara, tetapi kita tidak bisa hanya mengambil seseorang dan meniru percakapannya dengan sempurna dan mengharapkan obrolan-nya untuk datang dengan ide-ide baru seperti orang itu."
Alexandre de Brébisson, CEO dan salah satu pendiri Lyrebird, mengatakan, "Jika kita sekarang semakin pandai meniru suara, gambar, dan video manusia, kita masih jauh dari memodelkan model bahasa individual." Itu, de Brébisson menunjukkan, mungkin akan memerlukan kecerdasan umum buatan, jenis AI yang memiliki kesadaran dan dapat memahami konsep-konsep abstrak dan membuat keputusan seperti manusia. Beberapa ahli meyakini kita berpuluh-puluh tahun lagi untuk menciptakan AI umum. Yang lain berpikir kita tidak akan pernah sampai di sana.
Penggunaan Positif
Gambar negatif yang diproyeksikan tentang mensintesis aplikasi AI adalah membayangi penggunaan positifnya. Dan ada beberapa.
Teknologi seperti Lyrebird's dapat membantu meningkatkan komunikasi dengan antarmuka komputer dengan membuatnya lebih alami, dan, kata de Brébisson, mereka akan memberikan suara buatan unik yang membedakan perusahaan dan produk dan dengan demikian membuat pembedaan merek lebih mudah. Karena Alexa dari Amazon dan Siri dari Apple telah membuat suara antarmuka yang semakin populer untuk perangkat dan layanan, perusahaan seperti Lyrebird dan Voicery dapat memberikan suara unik mirip manusia kepada merek untuk membedakan diri mereka sendiri.
"Aplikasi medis juga merupakan kasus penggunaan yang menarik dari teknologi kloning suara kami, " tambah de Brébisson. "Kami telah menerima banyak minat dari pasien yang kehilangan suara karena suatu penyakit, dan saat ini, kami menghabiskan waktu dengan pasien ALS untuk melihat bagaimana kami dapat membantu mereka."
Awal tahun ini, bekerja sama dengan Project Revoice, sebuah organisasi nirlaba Australia yang membantu pasien ALS dengan gangguan berbicara, Lyrebird membantu Pat Quinn, pendiri Ice Bucket Challenge, untuk mendapatkan kembali suaranya. Quinn, yang merupakan pasien ALS, telah kehilangan kemampuannya untuk berjalan dan berbicara pada tahun 2014 dan sejak itu menggunakan synthesizer ucapan terkomputerisasi. Dengan bantuan teknologi Lyrebird dan rekaman suara penampilan publik Quinn, Revoice mampu "menciptakan kembali" suaranya.
"Suara Anda adalah bagian besar dari identitas Anda, dan memberikan pasien itu suara buatan yang terdengar seperti suara asli mereka agak seperti mengembalikan mereka bagian penting dari identitas mereka. Ini mengubah hidup mereka, " kata de Brébisson.
Pada saat ia membantu mengembangkan aplikasi peniru tulisan tangan, Dr. Haines berbicara tentang manfaat positifnya dalam wawancara dengan UCL. "Korban stroke, misalnya, mungkin dapat merumuskan surat-surat tanpa kekhawatiran tidak terbaca, atau seseorang yang mengirim bunga sebagai hadiah dapat menyertakan catatan tulisan tangan tanpa masuk ke toko bunga, " katanya. "Itu juga dapat digunakan dalam buku komik di mana sepotong tulisan tangan dapat diterjemahkan ke dalam berbagai bahasa tanpa kehilangan gaya asli penulisnya."
Bahkan teknologi seperti FakeApp, yang telah menjadi terkenal karena penggunaan yang tidak etis, dapat memiliki kegunaan positif, Haines percaya. "Kami bergerak menuju dunia ini di mana siapa pun dapat melakukan aktivitas yang sangat kreatif dengan teknologi publik, dan itu hal yang baik, karena itu berarti Anda tidak memerlukan sejumlah besar uang untuk melakukan segala macam hal gila yang bersifat artistik, " dia berkata.
Haines menjelaskan bahwa tujuan awal timnya adalah untuk mengetahui bagaimana AI dapat membantu dengan forensik. Meskipun penelitian mereka akhirnya mengambil arah yang berbeda, hasilnya masih akan bermanfaat bagi petugas forensik, yang akan dapat mempelajari seperti apa pemalsuan berbasis AI itu. "Anda ingin tahu apa teknologi mutakhirnya, jadi ketika Anda melihat sesuatu, Anda tahu itu palsu atau tidak, " katanya.
Replika's Kudya menunjukkan bahwa aplikasi AI yang mirip manusia mungkin membantu kita dengan cara yang tidak mungkin dilakukan. "Jika kamu memiliki avatar AI yang mengenal kamu dengan sangat baik dan bisa menjadi representasi yang baik darimu, apa yang bisa dilakukannya, bertindak berdasarkan kepentingan terbaikmu?" dia berkata. Misalnya, avatar AI otonom dapat menonton ratusan film atas nama Anda, dan berdasarkan percakapannya dengan Anda, rekomendasikan yang Anda inginkan.
Avatar ini bahkan bisa membantu mengembangkan hubungan manusia yang lebih baik. "Mungkin ibumu bisa punya lebih banyak waktu denganmu, dan mungkin kamu bisa benar-benar menjadi lebih dekat dengan orang tuamu, dengan membiarkan mereka mengobrol dengan Replika dan membaca transkripmu, " kata Kudya sebagai contoh.
Tetapi bisakah sebuah chatbot AI yang mereplikasi perilaku manusia yang sesungguhnya benar-benar menghasilkan hubungan manusia yang lebih baik? Kuyda yakin itu bisa. Pada tahun 2016, ia mengumpulkan pesan teks dan email lama dari Roman Mazurenko, seorang teman yang telah meninggal dalam kecelakaan di jalan tahun sebelumnya, dan memberi makan mereka ke jaringan saraf yang mendukung aplikasinya. Apa yang terjadi adalah aplikasi chatbot yang - setelah mode - menghidupkan kembali temannya dan bisa berbicara dengannya dengan cara yang sama seperti yang diinginkannya.
"Membuat aplikasi untuk Roman dan kadang-kadang bisa berbicara dengannya merupakan bagian penting dari kehilangan teman kita. Aplikasi ini membuat kita berpikir lebih banyak tentang dia, mengingatnya dengan cara yang lebih mendalam sepanjang waktu, " katanya. dari pengalamannya. "Saya berharap saya memiliki lebih banyak aplikasi seperti itu, aplikasi yang akan menjadi tentang persahabatan saya, hubungan saya, hal-hal yang sebenarnya sangat penting bagi saya."
Kuyda berpikir itu semua akan tergantung pada niat. "Jika chatbot bertindak berdasarkan minat terbaik Anda, jika ia ingin Anda dengan senang hati mendapatkan layanan berharga darinya, maka jelas berbicara dengan Replika dari orang lain akan membantu membangun hubungan yang lebih kuat dengan manusia dalam kehidupan nyata., " dia berkata. "Jika semua yang kamu coba lakukan adalah menjual dalam suatu aplikasi, maka semua yang akan kamu lakukan adalah memaksimalkan waktu yang dihabiskan untuk aplikasi dan tidak berkomunikasi satu sama lain. Dan itu, kurasa, dipertanyakan."
Untuk saat ini, tidak ada cara untuk menghubungkan Replika Anda ke platform lain - menjadikannya tersedia sebagai chatbot Facebook Messenger, misalnya. Tetapi perusahaan memiliki hubungan aktif dengan komunitas penggunanya dan terus mengembangkan fitur-fitur baru. Jadi membiarkan orang lain berkomunikasi dengan Replika Anda adalah kemungkinan di masa depan.
Cara Meminimalkan Pengorbanan
Dari mesin uap ke listrik ke internet, setiap teknologi memiliki aplikasi positif dan negatif. AI tidak berbeda. "Potensi negatif cukup serius, " kata Haines. "Kita mungkin memasuki ruang yang negatif melebihi nilai positifnya."
Jadi bagaimana kita memaksimalkan manfaat aplikasi AI sambil melawan yang negatif? Mengeraskan inovasi dan penelitian bukanlah solusi, kata Haines - karena jika beberapa orang melakukannya, tidak ada jaminan bahwa organisasi dan negara lain akan mengikutinya.
"Tidak ada tindakan tunggal yang akan membantu menyelesaikan masalah, " kata Haines. "Pasti ada konsekuensi hukumnya." Menyusul kontroversi mendalam, anggota parlemen di AS sedang menyelidiki masalah ini dan mengeksplorasi pengamanan hukum yang dapat mengekang penggunaan media yang dirawat oleh AI untuk tujuan yang merusak.
"Kami juga dapat mengembangkan teknologi untuk mendeteksi palsu ketika mereka melewati titik bahwa manusia dapat mengetahui perbedaannya, " kata Haines. "Tapi pada titik tertentu, dalam persaingan antara memalsukan dan mendeteksi, pemalsuan mungkin menang."
Dalam hal ini, kita mungkin harus bergerak menuju pengembangan teknologi yang menciptakan rantai bukti untuk media digital. Sebagai contoh, Haines menyebutkan perangkat keras yang tertanam dalam kamera yang dapat secara digital menandatangani video yang direkam untuk mengkonfirmasi keasliannya.
Meningkatkan kesadaran akan menjadi bagian besar dalam berurusan dengan pemalsuan dan penipuan oleh algoritma AI, kata de Brébisson. "Itu yang kami lakukan dengan mengkloning suara Trump dan Obama dan membuat mereka mengatakan kalimat yang secara politis benar, " katanya. "Teknologi ini menimbulkan pertanyaan sosial, etika, dan hukum yang harus dipikirkan sebelumnya. Lyrebird meningkatkan banyak kesadaran, dan banyak orang sekarang berpikir tentang masalah potensial tersebut dan bagaimana mencegah penyalahgunaan."
Yang pasti adalah bahwa kita memasuki zaman di mana kenyataan dan fiksi bergabung, berkat kecerdasan buatan. Tes Turing mungkin memenuhi tantangan terbesarnya. Dan segera, setiap orang akan memiliki alat dan kekuatan untuk menciptakan dunia mereka sendiri, orang-orang mereka sendiri, dan versi kebenaran mereka sendiri. Kita belum melihat sepenuhnya peluang menarik - dan bahaya - yang ada di depan.