Video: Бездарные технологии Nvidia (Desember 2024)
Prosesor grafis Titan X Nvidia yang baru didasarkan pada prosesor GM200, yang merupakan chip besar, memanfaatkan kekuatan 8 miliar transistor, 3.072 core pemrosesan, dan memori GDDR5 onboard 12GB untuk 7 teraflops kinerja puncak presisi tunggal puncak. Chip ini, yang dipratinjau di Game Developers Conference dua minggu lalu, didasarkan pada core Maxwell yang sama yang ada di prosesor perusahaan saat ini dan diproduksi pada proses 28nm yang sama.
Tetapi Nvidia mengatakan minggu ini bahwa GPU GeForce andalannya yang baru akan memberikan kinerja dua kali lipat dan efisiensi daya dua kali lipat dari pendahulunya. Ini juga merupakan chip yang sangat besar pada 601 mm2, tentang ukuran chip terbesar saat ini diproduksi, dan akan menarik daya 250 watt. Dan tentu saja, itu akan menjadi chip grafis umum paling mahal dengan harga eceran yang disarankan $ 999.
Sebagian besar ulasan dari situs-situs seperti ExtremeTech, Anandtech, dan TechReport cukup positif. Tentu saja, di dunia nyata, tidak ada yang melihat penggandaan kinerja yang diklaim vendor, meskipun ada beberapa keuntungan bagus. Secara umum, Titan X tampaknya jelas mengalahkan kartu GPU tunggal lainnya, dan melakukan pekerjaan yang dapat dikreditkan dibandingkan dengan dual GPU AMD Radeon R9 295X2 atau dual GeForce GTX 980 SLI Nvidia. Dalam banyak kasus, kartu dual-GPU dari masing-masing vendor akan lebih cepat daripada kartu single-GPU, tetapi banyak game tidak menggunakan kedua kartu, dan dalam kasus lain, setup kartu ganda menunjukkan lebih banyak kegagapan. Secara khusus, banyak ulasan fokus pada seberapa baik kinerja Titan X di 4K.
Tentu saja, saingan utama Nvidia di dunia persaingan grafis PC tidak mungkin duduk ketat- AMD secara luas dikabarkan memiliki kartu baru sendiri menunggu di sayap.
Namun, sekali lagi, apa yang saya pikir paling menarik tentang pengenalan Titan X di GPU Technology Conference (GTC) pada hari Selasa adalah fokus menggunakan chip dalam aplikasi pembelajaran yang mendalam, dengan CEO Nvidia Jen-Hsun Huang berbicara tentang bagaimana para peneliti telah menemukan bahwa teknik pembelajaran yang dalam dapat secara dramatis dipercepat menggunakan GPU.
Secara khusus, Huang berbicara tentang aplikasi mulai dari pengenalan gambar dengan penulisan teks otomatis hingga penelitian medis hingga kendaraan otonom. Pasar otomotif adalah fokus utama Nvidia di CES, karena memperkenalkan chip Tegra X1 dan solusi Drive PX untuk industri otomotif. Idenya adalah untuk menambah sistem bantuan pengemudi canggih yang sudah ada (ADAS) sehingga mereka menjadi lebih pintar dan lebih pintar dari waktu ke waktu. "Aku percaya Big Bang dari mobil yang bisa menyetir sendiri akan datang dalam beberapa tahun mendatang." Kata Huang.
Belakangan, CEO Tesla Motors, Elon Musk, bergabung dengan Huang di panggung GTC untuk mengatakan bahwa mengembangkan mobil self-driving yang sebenarnya lebih aman daripada mobil yang dikendarai manusia tidak begitu jauh. Musk mengatakan sensor suite saat ini dalam Tesla sudah mampu fitur bantuan driver canggih, tetapi mengemudi sendiri di lingkungan perkotaan dengan kecepatan 10-40 mil per jam akan membutuhkan daya pemrosesan lebih. Meski begitu, ia mengatakan bahwa transisi akan memakan waktu lama, karena armada kendaraan di jalan sangat besar. "Aneh bahwa kita begitu dekat dengan kedatangan AI, " kata Musk. "Aku hanya berharap ada sesuatu yang tersisa untuk kita lakukan sebagai manusia."
Pembelajaran mesin berbeda dari sebagian besar aplikasi komputasi kinerja tinggi (HPC) di mana Nvidia telah mendorong akselerator Tesla-nya. Aplikasi-aplikasi tersebut biasanya membutuhkan floating-point presisi ganda, sedangkan aplikasi pembelajaran dalam seringkali hanya membutuhkan presisi tunggal. Titan X hanya menawarkan presisi tunggal. Untuk aplikasi pembelajaran dalam, Nvidia menawarkan kerangka kerja baru yang disebut DIGITS, Sistem Pelatihan Deep GPU untuk para ilmuwan data, dan alat baru senilai $ 15.000 yang disebut DIGITS DevBox.
Melihat ke depan, Huang mengatakan arsitektur GPU Pascal, yang akan debut tahun depan, akan mempercepat aplikasi pembelajaran yang dalam sepuluh kali lipat dari kecepatan prosesor Maxwell generasi saat ini. Ini berasal dari tiga fitur baru: presisi campuran (lebih banyak menggunakan floating point 16-bit); 2, 7 kali kapasitas memori dengan hingga 32GB melalui penggunaan memori bertumpuk 3D dengan bandwidth memori tiga kali lipat, dan interkoneksi NV Link memungkinkan hingga delapan GPU kelas atas di DevBox atau stasiun kerja serupa (sebagai lawan dari empat Titan X GPU dalam satu pengiriman pada bulan Mei). Tidak dikatakan, tetapi kemungkinan chip berbasis arsitektur ini akan menggunakan teknologi proses generasi selanjutnya. Bagaimanapun, chip 28nm pertama diperkenalkan pada 2011 dan mulai dijual pada 2012, jadi pada tahun depan, saya berharap kita akan melihat chip grafis diskret 16nm atau 14nm.