Rumah Berpikir ke depan Unit pemrosesan tensor Google mengubah aturan untuk pembelajaran mesin

Unit pemrosesan tensor Google mengubah aturan untuk pembelajaran mesin

Video: Inside a Google data center (Oktober 2024)

Video: Inside a Google data center (Oktober 2024)
Anonim

Salah satu pengumuman paling menarik - dan tak terduga - yang dibuat Google pada konferensi pengembang I / O minggu lalu adalah bahwa ia telah merancang dan mengimplementasikan chip sendiri untuk pembelajaran mesin. Selama pidatonya, CEO Google Sundar Pichai memperkenalkan apa yang disebutnya Tensor Processing Unit (TPUs), mengatakan perusahaan menggunakan ini di mesin AlphaGo, yang mengalahkan juara Go Lee Sedol.

"TPU adalah urutan besarnya kinerja yang lebih tinggi per watt daripada FPGA dan GPU komersial, " kata Pichai. Meskipun ia tidak memberikan banyak detail, insinyur perangkat keras terkemuka Google, Norm Jouppi, menjelaskan dalam sebuah posting blog bahwa TPU adalah ASIC khusus (sirkuit khusus aplikasi khusus). Dengan kata lain, ini adalah chip yang dirancang khusus untuk menjalankan pembelajaran mesin dan khususnya dirancang untuk TensorFlow, kerangka kerja pembelajaran mesin Google.

Gambar

Dalam postingan itu, Jouppi mengatakan "lebih toleran" terhadap penurunan presisi komputasi, yang berarti membutuhkan lebih sedikit transistor per operasi. Ini memungkinkan Google untuk mendapatkan lebih banyak operasi per detik, membiarkan pengguna mendapatkan hasil lebih cepat. Dia mengatakan papan dengan TPU cocok ke slot hard disk drive di rak pusat data, dan menunjukkan gambar rak server penuh dengan TPU, yang katanya digunakan di mesin AlphaGo perusahaan.

Selain itu, Jouppi mengatakan TPU sudah bekerja pada sejumlah aplikasi di Google, termasuk RankBrain, yang digunakan untuk meningkatkan relevansi hasil pencarian, dan Street View, untuk meningkatkan akurasi dan kualitas peta dan navigasi.

Dalam konferensi pers, Wakil Presiden Teknis Infrastruktur Google Urs Hölzle mengonfirmasi bahwa TPU beroperasi menggunakan matematika bilangan bulat 8-bit, dan bukannya matematika floating-point dengan presisi lebih tinggi yang dirancang sebagian besar CPU dan GPU modern. Kebanyakan algoritma pembelajaran mesin bisa mendapatkan dengan baik dengan data resolusi lebih rendah, yang berarti chip dapat menangani lebih banyak operasi di area tertentu dan menangani model yang lebih kompleks secara efisien. Ini bukan ide baru, modul Nvidia Drive PX 2, yang diumumkan awal tahun ini di CES, mampu 8 teraflops dengan presisi floating-point 32-bit tetapi mencapai 24 "teraop" pembelajaran mendalam (istilah perusahaan untuk 8 matematika-bit integer).

Meskipun Hölzle menolak untuk membahas secara spesifik, laporan mengatakan dia mengkonfirmasi bahwa Google menggunakan TPU dan GPU saat ini. Dia mengatakan ini akan berlanjut untuk beberapa waktu tetapi menyarankan agar Google memandang GPU terlalu umum, lebih memilih chip yang lebih dioptimalkan untuk pembelajaran mesin. Dia mengatakan perusahaan akan merilis makalah yang menjelaskan manfaat chip nanti, tetapi membuatnya jelas ini dirancang untuk penggunaan internal saja, bukan untuk dijual ke perusahaan lain. Aplikasi lain yang ia gambarkan menggunakan chip untuk menangani bagian dari komputasi di belakang mesin pengenalan suara yang digunakan pada ponsel Android.

Pilihan untuk menggunakan ASIC adalah taruhan yang menarik oleh Google. Kemajuan terbesar dalam pembelajaran mesin dalam beberapa tahun terakhir - teknologi di balik dorongan besar untuk jaring saraf yang dalam - telah mengadopsi GPU, khususnya lini Nvidia Tesla, untuk melatih model-model ini. Baru-baru ini, Intel membeli Altera, pembuat FPGA terkemuka (array gerbang yang dapat diprogram), yang berada di suatu tempat di tengah; mereka tidak sebagai tujuan umum seperti GPU atau dirancang khusus untuk TensorFlow sebagai chip Google, tetapi dapat diprogram untuk melakukan berbagai tugas. Microsoft telah bereksperimen dengan FPGA Altera untuk pembelajaran yang mendalam. IBM sedang mengembangkan chip TrueNorth Neurosynaptic yang dirancang khusus untuk jaring saraf, yang baru-baru ini mulai digunakan dalam berbagai aplikasi. Cadence (Tensilica), Freescale, dan Synopsys mendorong DSP mereka (prosesor sinyal digital) untuk menjalankan model ini; Mobileye dan NXP baru-baru ini mengumumkan chip yang dirancang khusus untuk ADAS dan mobil self-driving; dan beberapa perusahaan kecil termasuk Movidius dan Nervana telah mengumumkan rencana untuk chip yang dirancang khusus untuk AI.

Masih terlalu dini untuk mengetahui pendekatan mana yang terbaik dalam jangka panjang, tetapi memiliki beberapa opsi yang sangat berbeda berarti kita akan melihat beberapa kompetisi yang menarik dalam beberapa tahun mendatang.

Unit pemrosesan tensor Google mengubah aturan untuk pembelajaran mesin