Rumah Bisnis Bagaimana struktur besar ini di gurun oregon membuat facebook tetap berjalan

Bagaimana struktur besar ini di gurun oregon membuat facebook tetap berjalan

Video: KENAPA FACEBOOK MARKETPLACE SEPI❓PAHAMI ALUR RAMAI DAN SEPI AKUN❓ SOLUSI AGAR AKUN RAMAI KEMBALI❗️ (Oktober 2024)

Video: KENAPA FACEBOOK MARKETPLACE SEPI❓PAHAMI ALUR RAMAI DAN SEPI AKUN❓ SOLUSI AGAR AKUN RAMAI KEMBALI❗️ (Oktober 2024)
Anonim

PRINEVILLE, Bijih. - Ada banyak cara untuk memastikan Anda memiliki internet yang cepat. Anda dapat pindah ke kota Google Fiber. Anda dapat memilih salah satu ISP Tercepat kami. Atau, Anda bisa membangun rumah Anda di sebelah pusat data Facebook.

Ambil pusat data Facebook pertama, misalnya. Dibuka di Prineville, Ore., Pada 2011, ia telah berfungsi sebagai model untuk setiap pusat data yang telah dibangun oleh raksasa media sosial sejak saat itu, dari Swedia ke Iowa. Ini menghabiskan begitu banyak bandwidth sehingga membutuhkan beberapa ISP yang melayani daerah untuk memperkuat jaringan mereka, membawa penduduk lokal ikut dalam perjalanan.

Anda mungkin berpikir tentang pusat data Prineville, bersama dengan fasilitas Facebook lainnya, sebagai jantung kolektif jejaring sosial terbesar di dunia: mereka menerima banyak permintaan untuk foto, pembaruan status, dan umpan berita yang diperbarui dari 1, 65 miliar pengguna aktif dan merespons secepat mungkin, mirip dengan jantung yang memompa oksigen ke dalam aliran darah.

Fasilitas Prineville mendekati ulang tahun kelima, dan menangani permintaan data untuk hal-hal yang Mark Zuckerberg mungkin tidak tahu akan dilakukan Facebook ketika dia memimpikan ide untuk perusahaan di kamar asramanya di Harvard.

Minggu ini, PCMag mampir untuk tur.

Prineville masih menyimpan foto dan pembaruan status, tentu saja, tetapi sekarang juga memiliki ribuan GPU Nvidia yang mendukung penelitian kecerdasan buatan Facebook, serta 2.000 ponsel iOS dan Android yang menjalankan tes 24 jam sehari. Ini membantu para insinyur perusahaan meningkatkan efisiensi daya aplikasi-aplikasinya, termasuk Instagram, Messenger, dan WhatsApp, selain Facebook.

Data Facebook 'Tangguh, Tidak Redundan'

Hal pertama yang Anda perhatikan tentang fasilitas Prineville adalah ukurannya. Bangkit dari padang pasir tinggi yang bertabur pohon di Oregon tengah, perjalanan tiga jam dari Portland bukanlah satu bangunan melainkan empat (dan itu tidak termasuk pusat data besar lainnya yang baru-baru ini dibangun Apple di seberang jalan, tepatnya bernama Connect Way). Salah satu bangunan Facebook dapat memuat dua Walmarts di dalamnya, dan kira-kira 100 kaki lebih panjang dari kapal induk kelas Nimitz.

Di dalamnya ada server yang menampung beberapa petabyte penyimpanan, dan yang terus diperbarui oleh insinyur Facebook dengan mengganti komponen. Dari 165 orang yang bekerja penuh waktu di pusat data, 30 per gedung ditugaskan hanya untuk melayani atau mengganti catu daya, prosesor, memori, dan komponen lainnya.

Ciri khas hampir semua perusahaan yang beroperasi di Internet, dari Amazon hingga Charles Schwab, adalah redundansi: banyak server menyimpan banyak salinan data. Itu kurang terjadi di Prineville, di mana Ken Patchett, direktur operasi data Barat Facebook, sebaliknya berfokus pada ketahanan - secara kasar didefinisikan sebagai kemampuan untuk siap kapanpun dan dimanapun di dunia seseorang log on ke Facebook.

Berfokus pada "ketahanan, bukan redundansi, " sebagaimana ditegaskan oleh Patchett, adalah mungkin karena Facebook memiliki kemewahan menyimpan banyak salinan data di lokasi lain di seluruh dunia, dari Lulea, Swedia, hingga Altoona, Iowa. Jadi, alih-alih memiliki dua atau lebih dari segalanya, ia dapat fokus pada pembelian peralatan strategis di setiap lokasi, seperti memiliki satu generator daya cadangan untuk setiap enam generator utama.

"Anda harus bertanggung jawab secara fiskal jika Anda akan ulet, " Patchett menjelaskan. Dia adalah salah satu pendiri pusat data teknologi tinggi di gurun pasir tinggi Oregon. Sebelum dia tiba di Facebook, dia membantu memulai pusat data di The Dalles, Ore., Untuk Google, salah satu perusahaan Internet pertama yang memanfaatkan tenaga hidroelektrik yang murah dan cuaca kering yang kering yang menjadi ciri sebagian besar wilayah timur Amerika kesembilan terbesar di Amerika. negara.

Kekuatan yang berlimpah, tentu saja, sangat penting untuk operasi Facebook. Temperatur server diatur oleh kombinasi pendingin air dan kipas besar yang menarik udara gurun kering (di bawah) alih-alih unit pendingin daya dan penggerusan uang. Kisaran suhu target adalah antara 60 dan 82 derajat Fahrenheit. Tim Patchett telah menjadi sangat pandai dalam mencapai target itu sehingga Prineville sekarang menawarkan rasio efisiensi daya 1, 07, yang berarti bahwa peralatan pendingin, lampu, dan pemanas - apa pun yang bukan perangkat komputasi - hanya mengonsumsi 7 persen dari total penggunaan energi fasilitas itu.

32 iPhone dalam Kotak

Sebagian besar pendinginan dan daya digunakan untuk memenuhi permintaan server, tetapi beberapa dialihkan ke ruang pengujian aplikasi yang relatif kecil dengan implikasi untuk mengurangi penggunaan daya tidak hanya di Prineville, tetapi di setiap ponsel dengan aplikasi Facebook.

Bukan rahasia lagi bahwa aplikasi Facebook telah berjuang dengan manajemen daya. The Guardian mengklaim awal tahun ini bahwa aplikasi ini mengurangi masa pakai baterai di iPhone sebesar 15 persen. Untuk merampingkan aplikasi dan mengurangi konsumsi baterainya, perusahaan membawa sekitar 2.000 ponsel iOS dan Android ke Prineville, di mana mereka dipasang di dalam kotak dalam kelompok-kelompok 32.

Setiap kotak memiliki jaringan Wi-Fi sendiri, dikelilingi oleh dinding terisolasi dan pita tembaga, yang digunakan para insinyur di markas besar di Lembah Silikon untuk mengirimkan baterai pengujian. Mereka mencari "regresi" dalam penggunaan baterai dan kinerja yang disebabkan oleh pembaruan aplikasi Facebook, Instagram, Messenger, dan WhatsApp. Jika mereka menemukannya di kode Facebook sendiri, mereka memperbaikinya. Jika inefisiensi diperkenalkan oleh pengembang, sistem mereka secara otomatis memberi tahu pelanggar melalui email.

Kotak tidak hanya berisi iPhone 6s terbaru atau Galaxy S7. Di sisi iOS, mereka memasukkan banyak model dari iPhone 4s dan yang lebih baru. Di sisi Android, siapa yang tahu? Cukuplah untuk mengatakan ada satu orang yang tugasnya mencari perangkat Android yang tidak jelas dan membawanya ke Prineville.

"Kami harus mencari telepon dari mana-mana, " kata Antoine Reversat, seorang insinyur yang membantu mengembangkan infrastruktur pengujian dan perangkat lunak. Tujuan utamanya adalah untuk menggandakan kapasitas rak masing-masing untuk menampung hingga 62 ponsel, dan mencari cara untuk mengurangi prosedur manual 20 langkah yang diperlukan untuk mengonfigurasikan ponsel untuk pengujian menjadi satu langkah. Itu akan menghibur siapa pun yang pernah memiliki ponsel mereka mati sambil menyegarkan feed berita mereka.

Big Sur: Otak AI Facebook

Selanjutnya dalam tur kami adalah server kecerdasan buatan Big Sur, yang, seperti garis pantai California yang diberi nama, bisa dibilang merupakan bagian paling indah dari pusat data. Tentu saja, kita tidak berbicara tentang pemandangan Pasifik yang luas, melainkan layar komputer yang menampilkan sekelompok lukisan, yang diawaki oleh Ian Buck, wakil presiden Nvidia dalam bidang komputasi yang dipercepat.

"Kami melatih jaringan saraf untuk mengenali lukisan, " Buck menjelaskan. "Setelah sekitar setengah jam melihat lukisan-lukisan itu, ia bisa mulai menghasilkan sendiri."

Yang dipamerkan menyerupai impresionisme Prancis abad ke-19, tetapi dengan twist. Jika Anda ingin kombinasi buah masih hidup dan lanskap sungai, Big Sur akan melukisnya untuk Anda dengan melenturkan 40 petaflops kekuatan pemrosesan per server. Ini adalah salah satu dari beberapa sistem AI yang menggunakan GPU Nvidia - dalam hal ini, prosesor Tesla M40 yang berbasis PCI.e - untuk memecahkan masalah pembelajaran mesin yang kompleks. Proyek perawatan kesehatan DeepMind Google juga menggunakan prosesor Nvidia.

Facebook menggunakan Big Sur untuk membaca cerita, mengidentifikasi wajah di foto, menjawab pertanyaan tentang adegan, bermain game, dan mempelajari rutinitas, di antara tugas-tugas lainnya. Ini juga open-source perangkat lunak, menawarkan cetak biru pengembang lain untuk cara mengatur infrastruktur khusus AI mereka sendiri. Perangkat keras termasuk delapan papan GPU Tesla M40 masing-masing hingga 33 watt. Semua komponen mudah diakses dalam laci server untuk meningkatkan kemudahan upgrade, yang pasti akan datang ketika Nvidia merilis versi PCI.e baru dari GPU Tesla-nya, termasuk P100 andalannya.

Cold Storage untuk Foto yang Terlupakan

Karena Prineville adalah pusat data pertama Facebook, itu cenderung menjadi tempat para insinyur menguji ide untuk membuat server Facebook lebih efisien. Salah satu ide terbaru adalah cold storage, atau server khusus yang menyimpan apa pun di Facebook yang tidak banyak dilihat - foto sekolah menengah Anda, misalnya, atau lusinan pembaruan status yang Anda poskan ketika Michael Jackson meninggal pada 2009.

Rahasia cold storage untuk sukses adalah berbagai tingkatan. Tingkat pertama terdiri dari perangkat keras perusahaan berkinerja tinggi, sementara tingkat yang lebih rendah menggunakan komponen yang lebih murah, dan dalam beberapa kasus - mungkin untuk foto-foto Anda dengan kawat gigi yang Anda harap tidak ada yang pernah melihat - perpustakaan pita cadangan. Hasil akhirnya adalah bahwa setiap rak server penyimpanan dingin dapat menampung 2 petabyte penyimpanan, atau setara dengan 4.000 tumpukan uang yang mencapai semua jalan ke bulan.

Membangun untuk Masa Depan

Meskipun Facebook telah membawa Internet lebih cepat dan manfaat lainnya ke Prineville, termasuk lebih dari $ 1 juta dalam bentuk sumbangan untuk sekolah dan badan amal setempat, kehadirannya bukan tanpa kontroversi. Oregon memberikan banyak uang dalam keringanan pajak kepada perusahaan pada saat ekonomi lokal, masih terhuyung-huyung dari gelembung perumahan 2008, mengikuti rata-rata nasional.

Namun, 1, 65 miliar orang tidak akan memiliki akses ke Facebook tanpa pos terdepan dan pusat data kembarnya ini. Dan bahkan ketika menempatkan sentuhan akhir pada bangunan Prineville keempatnya, perusahaan ini sedang menuju penyelesaian pusat kelima di Texas. Tetapi jika itu membuat Anda merasa bersalah tentang energi yang dikonsumsi penjelajahan Facebook Anda, itu tidak seharusnya. Menurut Patchett, satu pengguna yang menjelajah Facebook selama satu tahun penuh mengkonsumsi lebih sedikit energi daripada yang dibutuhkan untuk membuat latte. Dengan kata lain, Anda dapat melupakan hanya satu perjalanan ke Starbucks dan gulir melalui umpan berita Anda sesuka hati.

Bagaimana struktur besar ini di gurun oregon membuat facebook tetap berjalan