Home » NEWS » Engineer Mengembangkan Teknik Untuk Meningkatkan Efisiensi Infrastruktur Cloud Computing

Engineer Mengembangkan Teknik Untuk Meningkatkan Efisiensi Infrastruktur Cloud Computing

 

Mar. 7, 2013— Ilmuwan komputer di University of California, San Diego, dan Google telah mengembangkan pendekatan baru yang memungkinkan infrastruktur besar yang mendukung  komputasi awan sebanyak 15 sampai 20 persen lebih efisien. Model baru telah diterapkan di Google. Para peneliti mempresentasikan temuan mereka di IEEE International Symposium on High Performance Computer Architecture Conference 23-27 Februari di Cina.

 


Ilmuwan komputer melihat berbagai layanan Google web, termasuk Gmail dan search. Mereka menggunakan pendekatan yang unik untuk mengembangkan model mereka. Langkah pertama mereka adalah mengumpulkan data langsung dari warehouse-scale komputer Google karena mereka berjalan secara real time. Langkah kedua mereka adalah untuk melakukan eksperimen dengan data dalam lingkungan yang terkendali pada server terisolasi. Pendekatan dua langkah adalah kunci, kata Lingjia Tang dan Jason Mars, dosen di Departemen Ilmu Komputer dan Teknik di Jacobs School of Engineering di UC San Diego.

 

“Masalah-masalah ini dapat terlihat mudah untuk dipecahkan ketika melihat hanya satu server,” kata Mars. “Tapi solusi tidak akan meningkat ketika Anda melihat ratusan ribu server.”

 

Pekerjaan  ini adalah salah satu contoh dari penelitian yang dilakukan Mars  dan Tang  di Clarity Lab Jacobs School, kelompok riset yang baru dibentuk mereka. Clarity adalah singkatan dari Cross-Layer Architecture And Runtimes.

 

“Jika kita dapat menjembatani kesenjangan saat ini antara desain hardware dan software stack dan mengakses potensi yang sangat besar ini, itu bisa meningkatkan efisiensi perusahaan layanan web dan secara signifikan mengurangi energy footprint dari pusat data raksasa ini,” kata Tang.

 

Menemukan the NUMA score

Peneliti mengambil sampel 65 K data setiap hari selama rentang lebih dari tiga bulan di salah satu cluster Google server, yang menjalankan Gmail. Ketika mereka menganalisis data, mereka menemukan bahwa aplikasi berjalan secara signifikan lebih baik ketika data yang diakses terletak di dekatnya di server, bukan di lokasi terpencil. Tapi mereka juga tahu bahwa data yang mereka kumpulkan itu terganggu karena proses lainnya dan aplikasi yang berjalan di server pada saat yang sama. Mereka menggunakan alat statistik untuk menghilangkan gangguan tapi masih memerlukan eksperimen lanjutan.

 

Selanjutnya, ilmuwan komputer melanjutkan untuk menguji temuan mereka pada satu server yang terisolasi yang mereka bisa mengontrol kondisi aplikasi yang sedang berjalan. Selama percobaan, mereka menemukan bahwa lokasi data penting, tetapi persaingan untuk shared resources dalam server, terutama cache, juga memegang peran.

 

“Di mana lokasi data Anda dibandingkan di mana aplikasi Anda sangat erat kaitannya,” kata Mars. “Tapi itu bukan satu-satunya faktor”. Server yang dilengkapi dengan multiple processors, yang pada gilirannya dapat memiliki beberapa core. Random-access memory ditugaskan untuk masing-masing prosesor, memungkinkan data untuk diakses dengan cepat terlepas dari dimana ia disimpan. Namun, jika aplikasi yang berjalan pada core tertentu mencoba untuk mengakses data dari core yang lain, aplikasi akan berjalan lebih lambat. Model yang dikembangkan peneliti termasuk ke dalam kategori ini.

 

“Ini adalah masalah jarak antara execution dan data,” kata Tang. Berdasarkan hasil tersebut, para ilmuwan komputer yang mengembangkan sebuah novel metric, disebut the NUMA score, yang dapat menentukan seberapa baik random-access memory yang dialokasikan di warehouse-scale computers. Mengoptimalkan skor NUMA dapat menyebabkan 15 sampai 20 persen perbaikan dalam hal efisiensi. Perbaikan dalam penggunaan shared sources dapat menghasilkan keuntungan bahkan lebih besar, penelitian Mars dan Tang dapat mengembangkan bidang lainnya.

 

 

http://www.sciencedaily.com/releases/2013/03/130307145714.htm

 

Comments

comments

BERITA TERBARU