Rumah Pendapat Kecelakaan mobil self-driving Uber: apakah ai mengecewakan kita?

Kecelakaan mobil self-driving Uber: apakah ai mengecewakan kita?

Daftar Isi:

Video: Tehnik ngintip supaya tidak ditabrak mobil lain | Carvlog 4 ft Amel hari ke 1 #1 (Oktober 2024)

Video: Tehnik ngintip supaya tidak ditabrak mobil lain | Carvlog 4 ft Amel hari ke 1 #1 (Oktober 2024)
Anonim

Pada 12 Maret, MIT Technology Review menayangkan sebuah kisah yang dimulai seperti ini: "Ini adalah tahun 2023, dan mobil self-driving akhirnya menavigasi jalan-jalan kota kami. Untuk pertama kalinya, salah satu dari mereka menabrak dan membunuh seorang pejalan kaki, dengan liputan media yang sangat besar. Tuntutan hukum tingkat tinggi kemungkinan besar, tetapi hukum apa yang harus diterapkan?"

Segala sesuatu tentang prediksi itu benar, kecuali untuk tanggalnya. Tepat satu minggu setelah artikel itu diterbitkan, Uber yang mengemudi sendiri menabrak dan membunuh seorang pejalan kaki di Tempe, Arizona, ketika berfungsi dalam mode otonom.

Meskipun insiden itu masih diselidiki, keributan yang terjadi merupakan indikasi seberapa jauh kita dari berhasil mengintegrasikan kecerdasan buatan ke dalam tugas dan keputusan penting kita.

Dalam banyak kasus, masalahnya bukan pada AI tetapi dengan harapan dan pengertian kita. Menurut Wired , hampir 40.000 orang tewas dalam insiden jalan tahun lalu di AS saja - 6.000 di antaranya adalah pejalan kaki. Tetapi sangat sedikit (jika ada) yang menjadi berita utama seperti kejadian Uber.

Salah satu alasan jatuhnya Uber menyebabkan keributan seperti itu adalah bahwa kita umumnya memiliki harapan tinggi terhadap teknologi baru, bahkan ketika mereka masih dalam pengembangan. Di bawah ilusi bahwa matematika murni menggerakkan algoritma AI, kami cenderung memercayai keputusan mereka dan terkejut ketika mereka membuat kesalahan.

Bahkan pengemudi keselamatan di belakang kemudi mobil self-driving membuat mereka lengah. Cuplikan dari insiden Uber menunjukkan pengemudi terganggu, melihat ke bawah beberapa detik sebelum kecelakaan terjadi.

Pada tahun 2016, pengemudi Model Tesla S yang beroperasi dalam mode Autopilot meninggal setelah kendaraan menabrak truk. Investigasi menemukan pengemudi mungkin sedang menonton film Harry Potter pada saat tabrakan.

Harapan akan kesempurnaan tinggi, dan kekecewaan sangat kuat. Para kritikus dengan cepat mempertanyakan seluruh proyek mobil self-driving Uber setelah insiden itu; perusahaan telah menghentikan sementara pengujian mobil self-driving setelahnya.

AI Bukan Manusia

Di antara kritik yang mengikuti kecelakaan itu adalah bahwa pengemudi manusia akan dengan mudah menghindari insiden itu.

"Tidak melompat keluar dari semak-semak. Dia telah membuat kemajuan yang jelas di beberapa jalur lalu lintas, yang seharusnya berada di ruang lingkup sistem untuk dijemput, " kata seorang pakar kepada CNN.

Dia benar. Seorang pengemudi manusia yang berpengalaman kemungkinan akan melihatnya. Tetapi algoritma AI bukan manusia.

Algoritma pembelajaran mendalam yang ditemukan di mobil self-driving menggunakan banyak contoh untuk "mempelajari" aturan domain mereka. Ketika mereka menghabiskan waktu di jalan, mereka mengklasifikasikan informasi yang mereka kumpulkan dan belajar untuk menangani situasi yang berbeda. Tetapi ini tidak berarti mereka menggunakan proses pengambilan keputusan yang sama dengan pengemudi manusia. Itu sebabnya mereka mungkin berperforma lebih baik daripada manusia dalam beberapa situasi dan gagal pada mereka yang tampak sepele bagi manusia.

Contoh sempurna adalah algoritma klasifikasi gambar, yang belajar mengenali gambar dengan menganalisis jutaan foto berlabel. Selama bertahun-tahun, klasifikasi gambar telah menjadi sangat efisien dan mengungguli manusia dalam banyak pengaturan. Ini tidak berarti algoritma memahami konteks gambar dengan cara yang sama seperti yang dilakukan manusia.

Misalnya, penelitian oleh para ahli di Microsoft dan Stanford University menemukan bahwa algoritma pembelajaran yang mendalam dilatih dengan gambar kucing putih percaya dengan tingkat keyakinan yang tinggi bahwa foto seekor anjing putih mewakili kucing, suatu kesalahan yang dapat dengan mudah dihindari oleh anak manusia. Dan dalam kasus yang terkenal, algoritma klasifikasi gambar Google secara keliru mengklasifikasikan orang-orang dengan warna kulit gelap sebagai gorila.

Ini disebut "kasus tepi, " situasi yang algoritma AI belum dilatih untuk menangani, biasanya karena kurangnya data. Kecelakaan Uber masih dalam penyelidikan, tetapi beberapa ahli AI menyarankan itu bisa menjadi kasus tepi yang lain.

Pembelajaran mendalam memiliki banyak tantangan untuk diatasi sebelum dapat diterapkan dalam situasi kritis. Tetapi kegagalannya seharusnya tidak menghalangi kita. Kita harus menyesuaikan persepsi dan harapan kita dan merangkul kenyataan bahwa setiap teknologi besar gagal selama evolusinya. AI tidak berbeda.

Kecelakaan mobil self-driving Uber: apakah ai mengecewakan kita?