Rumah fitur 10 Algoritma memalukan gagal

10 Algoritma memalukan gagal

Daftar Isi:

Video: BURUAN TONTON..!! 10 MOMEN TAK TERLUPAKAN YANG PALING MEMALUKAN SAAT LIVE TV OLAHRAGA! (Oktober 2024)

Video: BURUAN TONTON..!! 10 MOMEN TAK TERLUPAKAN YANG PALING MEMALUKAN SAAT LIVE TV OLAHRAGA! (Oktober 2024)
Anonim

Teknologi bukan hanya untuk Geeks, itu untuk semua orang, dan itu banyak orang. Dengan hanya segelintir perusahaan yang mengendalikan sebagian besar perangkat keras dan perangkat lunak - dari Apple dan Amazon hingga Facebook, Microsoft, dan Google - mereka hanya dapat melakukan begitu banyak hal untuk mengendalikan dompet dan bola mata Anda. Apa yang harus dilakukan korporasi raksasa dan miskin? Andalkan algoritma untuk membuat beberapa keputusan penting.

Kamus Oxford Hidup mendefinisikan algoritma sebagai "suatu proses atau seperangkat aturan yang harus diikuti dalam perhitungan atau operasi pemecahan masalah lainnya, terutama oleh komputer." Contoh sempurna adalah Umpan Berita Facebook. Tidak ada yang tahu cara kerjanya bahwa beberapa posting Anda muncul di Umpan Berita sebagian orang atau tidak, tetapi Facebook melakukannya. Atau bagaimana dengan Amazon yang menunjukkan kepada Anda buku-buku terkait? Pencarian terkait di Google? Semua ini adalah rahasia yang dijaga ketat yang melakukan banyak pekerjaan untuk perusahaan dan dapat memiliki dampak besar pada kehidupan Anda.

Tetapi algoritma tidak sempurna. Mereka gagal dan beberapa gagal secara spektakuler. Tambahkan sorotan media sosial, dan kesalahan kecil dapat berubah menjadi mimpi buruk PR yang sangat cepat. Ini jarang berbahaya; ini cenderung apa yang oleh New York Times disebut "Momen Frankenstein, " di mana makhluk yang diciptakan seseorang berubah menjadi monster. Tapi itu terjadi, dan kami telah mengumpulkan beberapa contoh terbaru yang paling mengerikan di bawah ini. Beri tahu kami favorit Anda di komentar di bawah.

    1 Iklan yang Dipertanyakan Instagram

    Seperti dilansir The Guardian , Facebook suka menjalankan iklan untuk layanan Instagram-nya dengan posting dari penggunanya sendiri. Tetapi algoritma memilih "foto" yang salah untuk mendorong ke teman-teman Olivia Solon, dirinya seorang reporter di The Guardian , memilih tangkapan layar tahun lalu yang diambilnya dari surel yang mengancam.

    2 Iklan Rasis Bertarget

    Pekan lalu, ProPublica melaporkan bahwa Facebook mengizinkan pengiklan untuk menargetkan kategori orang yang ofensif, seperti "pembenci Yahudi." Situs membayar $ 30 untuk iklan (di atas) yang menargetkan audiens yang akan menanggapi hal-hal seperti "mengapa orang Yahudi merusak dunia" dan "Hitler tidak melakukan kesalahan." Itu disetujui dalam 15 menit.

    Slate juga menemukan kategori ofensif yang sama, dan itu menjadi item lain dalam antrean panjang yang tidak hanya harus dimintai maaf oleh Facebook, tetapi juga berjanji untuk memperbaikinya dengan pengawasan manusia. Anda tahu, seperti ketika menempatkan iklan pemilu senilai $ 100.000 untuk Rusia.

    Dalam sebuah posting Facebook, COO Sheryl Sandberg mengatakan dia "muak dan kecewa dengan kata-kata itu" dan mengumumkan perubahan pada alat iklannya.

    BuzzFeed memeriksa untuk melihat bagaimana Google akan menangani hal-hal serupa, dan ternyata mudah juga mengatur iklan bertarget untuk dilihat oleh para rasis dan fanatik. The Daily Beast memeriksanya di Twitter dan menemukan jutaan iklan menggunakan istilah seperti "Nazi, " "wetback, " dan kata N.

    3 Tahun Facebook dalam Tinjauan Kesengsaraan

    Jika Anda menggunakan Facebook, Anda pasti akan melihat video akhir tahun yang dihasilkan algoritma dengan highlight dari 12 bulan terakhir. Atau bagi sebagian orang, lampu rendah. Pada 2014, seorang ayah melihat foto almarhum putrinya, sementara yang lain melihat foto-foto rumahnya terbakar. Contoh lain termasuk orang-orang melihat hewan peliharaan mereka yang terlambat, guci yang penuh abu orang tua, dan teman-teman yang sudah meninggal. Pada 2015, Facebook berjanji untuk menyaring kenangan menyedihkan.

  • 4 Tesla Autopilot Crash

    Kebanyakan snafus algoritmik jauh dari fatal, tetapi dunia mobil yang bisa menyetir sendiri akan membawa tingkat bahaya yang sama sekali baru. Itu sudah terjadi setidaknya sekali. Seorang pemilik Tesla di jalan raya Florida menggunakan mode semi-otonom (Autopilot) dan menabrak sebuah traktor-trailer yang memotongnya. Tesla dengan cepat mengeluarkan upgrade, tetapi apakah itu benar-benar kesalahan mode Autopilot? Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional mengatakan mungkin tidak karena sistem mengharuskan pengemudi untuk tetap waspada terhadap masalah, seperti yang Anda lihat dalam video di atas. Sekarang, Tesla mencegah Autopilot dari bahkan bertunangan jika pengemudi tidak menanggapi isyarat visual terlebih dahulu.

  • 5 Tay the Rasis Microsoft AI

    Beberapa tahun yang lalu, bot obrolan seharusnya mengambil dunia dengan badai, menggantikan perwakilan layanan pelanggan dan menjadikan dunia online tempat yang asyik untuk mendapatkan info. Microsoft merespons pada Maret 2016 dengan mendorong AI yang bernama Tay agar orang-orang, khususnya yang berusia 18 hingga 24 tahun, dapat berinteraksi dengan di Twitter. Tay pada gilirannya akan membuat tweet publik untuk massa. Tetapi dalam waktu kurang dari 24 jam, belajar dari massa yang bermulut kotor, Tay menjadi rasis penuh. Microsoft menarik Tay ke bawah seketika; dia kembali sebagai AI baru bernama Zo pada Desember 2016, dengan "cek dan keseimbangan yang kuat untuk melindungi dirinya dari eksploitasi."

    6 Selamat atas Bayi Anda (Tidak Ada)!

    Pengungkapan penuh: Ketika saya menulis ini, istri saya sebenarnya hamil. Kami berdua mendapat email ini dari Amazon yang mengatakan seseorang telah membeli sesuatu untuk kami dari daftar bayi kami. Kami belum mengumumkannya kepada publik, tetapi itu tidak terlalu mengejutkan. Sementara itu, beberapa juta pelanggan Amazon lainnya juga mendapat catatan yang sama, termasuk beberapa tanpa registrasi… atau bayi dalam perjalanan. Itu bisa menjadi bagian dari skema phishing, tapi ternyata tidak. Amazon mengetahui kesalahannya dan mengirim email permintaan maaf lanjutan. Pada saat itu, banyak yang mengeluh bahwa ini tidak pantas atau tidak sensitif. Algoritma ini kurang dari server email yang bermasalah, tetapi menunjukkan kepada Anda bahwa selalu mudah tersinggung.

    7 Bahan Bom Amazon 'Merekomendasikan'

    Semua orang melompat pada yang ini setelah dilaporkan oleh Channel 4 News UK, dari Fox News ke The New York Times . Seharusnya ditemukan bahwa fitur "sering dibeli bersama" Amazon akan menunjukkan kepada orang-orang apa yang mereka butuhkan untuk membuat bom, jika mereka mulai dengan salah satu bahan, yang tidak disebutkan namanya (itu adalah kalium nitrat).

    Apa yang sebenarnya dilakukan algoritma Amazon adalah menunjukkan kepada pembeli bahan-bahan untuk membuat bubuk hitam dalam jumlah kecil, yang benar-benar legal di Inggris, dan digunakan untuk semua hal - seperti kembang api - seperti yang dengan cepat ditunjukkan dalam pemikiran yang luar biasa bagus- posting blog di Idle Words. Sebaliknya, semua laporan adalah tentang bagaimana Amazon melihat ke dalamnya, karena itulah yang mereka katakan sedang mereka lakukan di dunia yang takut akan terorisme dan logika.

    8 Google Maps Mendapat Racist

    Pada 2015, Google harus meminta maaf ketika Google Maps mencari "n ***** king" dan "n *** a house, " mengarah ke Gedung Putih, yang saat itu masih ditempati oleh Barack Obama. Ini adalah hasil dari "Googlebomb, " di mana istilah yang digunakan berulang kali diambil oleh mesin pencari dan ditandai sebagai "populer" sehingga hasilnya masuk ke bagian atas pencarian. Begitulah kata "Santorum" mendapatkan definisi baru.

    9 Google Menandai Manusia sebagai Gorila

    Foto Google adalah aplikasi / layanan luar biasa yang menyimpan semua gambar Anda dan banyak lagi. Salah satunya adalah memberi tag otomatis pada orang dan barang di foto. Ia menggunakan pengenalan wajah bagi orang-orang untuk mempersempitnya sampai ke orang yang tepat. Saya bahkan memiliki folder semua anjing saya, dan saya tidak menandai mereka. Agar berhasil, itu mengerikan ketika pada 2015 Google harus meminta maaf kepada programmer Komputer Jacky Alciné ketika ia dan seorang teman - keduanya berkulit hitam - diidentifikasikan oleh layanan sebagai gorila. "Kami sangat terkejut dan benar-benar menyesal bahwa ini terjadi, " kata Google pada PCMag.

    10 Robot Keamanan Memukul Anak, Membunuh Diri

    Knightscope membuat robot keamanan otonom yang disebut K5 untuk berpatroli di sekolah dan mal dan lingkungan. Kerucut Dalek-esque setinggi 5 kaki di atas roda - yang menurut mereka, masih dalam pengujian beta - cenderung membuat berita bukan untuk menggagalkan kejahatan tetapi untuk gangguan.

    Misalnya, pada Juli 2016, K5 di Stanford Shopping Centre di Palo Alto menabrak kaki seorang anak berusia 16 bulan, dan Knightscope harus secara resmi meminta maaf. Lokasi yang sama - mungkin droid yang sama - memiliki pertengkaran di tempat parkir dengan seorang pemabuk, tetapi setidaknya itu bukan kesalahan K5. Juri masih keluar di unit K5 di Georgetown Waterfront, kompleks perkantoran / perbelanjaan di Washington DC… yang menurut dugaan seseorang menuruni beberapa tangga ke air mancur setelah hanya satu minggu bekerja. Itu tidak terlihat bagus untuk pasukan Skynet.

10 Algoritma memalukan gagal