Rumah Pendapat Bagaimana peringatan berita palsu openai memicu berita palsu yang sebenarnya

Bagaimana peringatan berita palsu openai memicu berita palsu yang sebenarnya

Daftar Isi:

Video: Penangkapan Wanita Diduga Sebar Hoax soal UU Cipta Kerja (Oktober 2024)

Video: Penangkapan Wanita Diduga Sebar Hoax soal UU Cipta Kerja (Oktober 2024)
Anonim

Laboratorium penelitian AI nirlaba OpenAI menyebabkan gelombang kepanikan kiamat AI bulan lalu ketika memperkenalkan AI penghasil teks canggih yang disebut GPT-2. Tetapi sementara merayakan pencapaian GPT-2, OpenAI menyatakan tidak akan merilis model AI-nya kepada publik, takut bahwa di tangan yang salah, GPT-2 dapat digunakan untuk tujuan jahat seperti membuat artikel berita yang menyesatkan, meniru yang lainnya secara online, dan mengotomatisasi produksi konten palsu di media sosial.

Bisa ditebak, pengumuman OpenAI menciptakan banjir berita sensasional, tetapi sementara setiap teknologi canggih dapat dipersenjatai, AI masih harus pergi jauh sebelum menguasai generasi teks. Bahkan kemudian, dibutuhkan lebih dari sekadar memproduksi teks AI untuk menciptakan krisis berita palsu. Dalam hal ini, peringatan OpenAI terlalu dibesar-besarkan.

AI dan Bahasa Manusia

Komputer secara historis telah berjuang untuk menangani bahasa manusia. Ada begitu banyak kerumitan dan nuansa dalam teks tertulis yang mengubah semuanya menjadi aturan perangkat lunak klasik hampir tidak mungkin. Tetapi kemajuan terbaru dalam pembelajaran mendalam dan jaringan saraf telah membuka jalan bagi pendekatan berbeda untuk menciptakan perangkat lunak yang dapat menangani tugas-tugas yang berhubungan dengan bahasa.

Pembelajaran yang mendalam telah membawa perbaikan besar pada bidang-bidang seperti terjemahan mesin, peringkasan teks, penjawaban pertanyaan, dan generasi bahasa alami. Ini memungkinkan para insinyur perangkat lunak membuat algoritma yang mengembangkan perilaku mereka sendiri dengan menganalisis banyak contoh. Untuk tugas yang berhubungan dengan bahasa, insinyur memberi makan jaringan saraf konten digital seperti berita, halaman Wikipedia, dan posting media sosial. Jaring saraf membandingkan data dengan hati-hati dan mencatat bagaimana kata-kata tertentu mengikuti yang lain dalam urutan yang berulang. Mereka kemudian mengubah pola-pola ini menjadi persamaan matematika yang kompleks yang membantu mereka menyelesaikan tugas-tugas yang berhubungan dengan bahasa seperti memprediksi kata-kata yang hilang dalam urutan teks. Secara umum, semakin banyak data pelatihan yang Anda berikan untuk model pembelajaran yang mendalam, semakin baik dalam melakukan tugasnya.

Menurut OpenAI, GPT-2 telah dilatih pada 8 juta halaman web dan milyaran kata, yang jauh lebih banyak daripada model serupa lainnya. Ini juga menggunakan model AI canggih untuk menerapkan pola teks yang lebih baik. Output sampel dari GPT-2 menunjukkan bahwa model berhasil mempertahankan koherensi dalam urutan teks yang lebih panjang daripada pendahulunya.

Tetapi sementara GPT-2 adalah langkah maju dalam bidang generasi bahasa alami, itu bukan terobosan teknologi untuk menciptakan AI yang dapat memahami makna dan konteks teks tertulis. GPT-2 masih menggunakan algoritme untuk membuat urutan kata-kata yang secara statistik mirip dengan miliaran kutipan teks yang telah dilihat sebelumnya - ia sama sekali tidak mengerti apa yang dihasilkannya.

Dalam analisis mendalam, Tiernan Ray ZDNet menunjuk ke beberapa contoh di mana sampel keluaran GPT-2 mengkhianati sifat buatan mereka dengan artefak terkenal seperti duplikasi istilah dan kurangnya logika dan konsistensi dalam fakta. "Ketika GPT-2 bergerak untuk menangani penulisan yang membutuhkan lebih banyak pengembangan ide dan logika, celah-celah terbuka cukup lebar, " kata Ray.

Pembelajaran statistik dapat membantu komputer menghasilkan teks yang secara tata bahasa benar, tetapi pemahaman konseptual yang lebih dalam diperlukan untuk mempertahankan konsistensi logis dan faktual. Sayangnya, itu masih merupakan tantangan yang belum dapat diatasi oleh campuran AI saat ini. Itu sebabnya GPT-2 dapat menghasilkan paragraf teks yang bagus tetapi mungkin akan sulit sekali untuk menghasilkan artikel bentuk panjang yang otentik atau meniru seseorang dengan cara yang meyakinkan dan selama periode waktu yang panjang.

Mengapa Panic Berita Palsu AI Diperbesar

Masalah lain dengan alasan OpenAI: Ini mengasumsikan bahwa AI dapat membuat krisis berita palsu.

Pada 2016, sekelompok remaja Makedonia menyebarkan berita palsu tentang pemilihan presiden AS kepada jutaan orang. Ironisnya, mereka bahkan tidak memiliki keterampilan bahasa Inggris yang tepat; mereka menemukan cerita mereka di web dan menjahit konten yang berbeda bersama-sama. Mereka berhasil karena mereka membuat situs web yang terlihat cukup otentik untuk meyakinkan pengunjung untuk mempercayai mereka sebagai sumber berita yang dapat diandalkan. Headline sensasional, pengguna media sosial yang lalai, dan algoritma tren melakukan sisanya.

Kemudian pada tahun 2017, aktor jahat memicu krisis diplomatik di wilayah Teluk Persia dengan meretas situs-situs berita pemerintah Qatar dan akun media sosial pemerintah dan menerbitkan komentar palsu atas nama Sheikh Tamim bin Hamad Al Thani, Emir Qatar.

Seperti yang ditunjukkan oleh kisah-kisah ini, keberhasilan kampanye berita palsu bergantung pada membangun (dan mengkhianati) kepercayaan, bukan pada menghasilkan sejumlah besar teks bahasa Inggris yang koheren.

Peringatan OpenAI tentang mengotomatisasi produksi konten palsu untuk diposkan di media sosial lebih terjamin, karena skala dan volume memainkan peran yang lebih penting di jejaring sosial daripada di outlet media tradisional. Asumsinya adalah bahwa AI seperti GPT-2 akan dapat membanjiri media sosial dengan jutaan posting unik tentang topik tertentu, memengaruhi algoritma tren dan diskusi publik.

Tapi tetap saja, peringatannya tidak sesuai dengan kenyataan. Dalam beberapa tahun terakhir, perusahaan media sosial terus mengembangkan kemampuan untuk mendeteksi dan memblokir perilaku otomatis. Jadi aktor jahat yang dipersenjatai dengan AI penghasil teks harus mengatasi sejumlah tantangan di luar membuat konten yang unik.

Misalnya, mereka akan membutuhkan ribuan akun media sosial palsu untuk memposting konten yang dihasilkan AI mereka. Bahkan lebih keras, untuk memastikan bahwa tidak ada cara untuk menghubungkan akun palsu, mereka akan membutuhkan perangkat dan alamat IP yang unik untuk setiap akun.

Semakin memburuk: Akun harus dibuat pada waktu yang berbeda, mungkin lebih dari setahun atau lebih, untuk mengurangi kesamaan. Tahun lalu, penyelidikan New York Times menunjukkan bahwa tanggal pembuatan akun saja dapat membantu menemukan akun bot. Kemudian untuk menyembunyikan sifat otomatisnya dari pengguna lain dan algoritma pemolisian, akun harus terlibat dalam perilaku yang mirip manusia, seperti berinteraksi dengan pengguna lain dan mengatur nada unik di pos mereka.

Tidak satu pun dari tantangan ini yang mustahil untuk diatasi, tetapi mereka menunjukkan bahwa konten hanyalah salah satu bagian dari upaya yang diperlukan untuk melakukan kampanye media berita palsu media sosial. Dan lagi, kepercayaan memainkan peran penting. Beberapa influencer media sosial tepercaya yang memasang beberapa posting berita palsu akan memiliki dampak yang lebih besar daripada sekelompok akun tidak dikenal yang menghasilkan konten dalam jumlah besar.

Dalam Pertahanan Peringatan OpenAI

Peringatan yang dibesar-besarkan OpenAI memicu siklus hype dan kepanikan media yang, ironisnya, berbatasan dengan berita palsu itu sendiri, memicu kritik dari para ahli AI yang terkenal.

Mereka mengundang orang-orang media untuk mendapatkan akses awal ke hasilnya, dengan embargo pers sehingga semuanya dipublikasikan pada hari yang sama. Tidak ada peneliti yang saya tahu bisa melihat model besar, tetapi wartawan melakukannya. Ya, mereka sengaja meledakkannya.

- Matt Gardner (@nlpmattg) 19 Februari 2019

Setiap manusia baru berpotensi digunakan untuk menghasilkan berita palsu, menyebarkan teori konspirasi, dan memengaruhi orang.

Haruskah kita berhenti membuat bayi?

- Yann LeCun (@ylecun) 19 Februari 2019

Hanya ingin memberi Anda semua keunggulan, lab kami menemukan terobosan menakjubkan dalam pemahaman bahasa. tapi kami juga khawatir itu bisa jatuh ke tangan yang salah. jadi kami memutuskan untuk menghapusnya dan hanya menerbitkan barang * ACL biasa saja. Penghargaan besar untuk tim atas kerja keras mereka.

- (((? () (? () 'Yoav)))) (@yoavgo) 15 Februari 2019

Zachary Lipton, periset AI dan editor Approicip Correct, menunjuk pada sejarah OpenAI tentang "menggunakan blog mereka dan menggagalkan perhatian untuk melontarkan pekerjaan yang belum matang ke dalam pandangan publik, dan sering mempermainkan aspek keselamatan manusia dari pekerjaan yang belum memiliki intelektual kaki untuk berdiri."

Meskipun OpenAI layak menerima semua kritik dan panas yang diterimanya setelah pernyataan menyesatkannya, OpenAI juga benar-benar khawatir tentang kemungkinan penggunaan berbahaya teknologinya, bahkan jika perusahaan menggunakan cara yang tidak bertanggung jawab untuk mengedukasi masyarakat tentang hal itu.

  • Tahun Reckoning Etis Industri AI. Tahun Reckoning Etis Industri AI
  • Keuntungan Tidak Sehat: Jangan Mengharapkan AI untuk Bermain Seperti Manusia Keuntungan Tidak Sehat: Jangan Mengharapkan AI untuk Bermain Seperti Manusia
  • AI Ini Memprediksi Trolling Online Sebelum Terjadi AI ini Memprediksi Trolling Online Sebelum Terjadi

Dalam beberapa tahun terakhir, kita telah melihat bagaimana teknologi AI dipublikasikan tanpa pemikiran dan refleksi dapat dipersenjatai untuk maksud jahat. Salah satu contoh adalah FakeApp, aplikasi AI yang dapat bertukar wajah dalam video. Segera setelah FakeApp dirilis, itu digunakan untuk membuat video porno palsu yang menampilkan selebriti dan politisi, menyebabkan kekhawatiran atas ancaman pemalsuan yang ditenagai AI.

Keputusan OpenAI menunjukkan bahwa kita perlu berhenti sejenak dan memikirkan kemungkinan akibat dari pelepasan teknologi secara publik. Dan kita perlu melakukan diskusi yang lebih aktif tentang risiko teknologi AI.

"Satu organisasi yang menghentikan satu proyek tertentu tidak akan mengubah apa pun untuk jangka panjang. Tetapi OpenAI mendapat banyak perhatian untuk apa pun yang mereka lakukan… dan saya pikir mereka harus bertepuk tangan karena telah menyoroti masalah ini, " David Bau, seorang peneliti di Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL), mengatakan kepada Slate.

Bagaimana peringatan berita palsu openai memicu berita palsu yang sebenarnya