Not logged in.

Contribution Details

Type Master's Thesis
Scope Discipline-based scholarship
Title Cloud Benchmarking – Estimating Cloud Application Performance Based on Micro Benchmark Profiling
Organization Unit
Authors
  • Joel Scheuner
Supervisors
  • Philipp Leitner
  • Harald Gall
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Number of Pages 76
Date 2017
Abstract Text The continuing growth of the cloud computing market has led to an unprecedented diversity of cloud services. To support service selection, micro benchmarks are commonly used to identify the best performing cloud service. However, it remains unclear how relevant these synthetic micro benchmarks are for gaining insights into the performance of real-world applications. Therefore, this thesis develops a cloud benchmarking methodology that uses micro benchmarks to profile application performance and subsequently estimates how an application performs on a wide range of cloud services. A study with a real cloud provider has been conducted to quantitatively evaluate the estimation model with 38 selected metrics from 23 micro benchmarks and 2 applications from different domains. The results reveal remarkably low variability in cloud service performance and show that selected micro benchmarks can estimate the duration of a scientific computing application with a relative error of less than 10% and the response time of a Web serving application with a relative error between 10% and 20%. In conclusion, this thesis emphasizes the importance of cloud benchmarking by substantiating the suitability of micro benchmarks for estimating application performance but also highlights that only selected micro benchmarks are relevant to estimate the performance of a particular application.
Zusammenfassung Das anhaltende Wachstum des Cloud Computing Marktes führte zu einer noch nie dagewesenen Vielfalt an Cloud-Diensten. Bei der Entscheidungsunterstützung zur Wahl des leistungsstärksten Cloud-Dienstes werden verbreitet Micro Benchmarks eingesetzt, wobei unklar bleibt wie relevant diese künstlichen Micro Benchmarks sind, um Erkenntnisse über die Leistung von realen Anwendungen zu gewinnen. Daher wird in dieser Arbeit eine Methode zum Leistungsvergleich von Cloud-Diensten entwickelt, welche Micro Benchmarks verwendet um ein Leistungsprofil einer Anwendung zu erstellen und damit die Leistung dieser Anwendung über eine grosse Auswahl an Cloud-Diensten abzuschätzen. Eine Studie mit einem realen Cloud-Anbieter wurde durchgeführt, um das Schätzungsmodell mit 38 ausgewählten Metriken von 23 Micro Benchmarks und 2 Anwendungen aus unterschiedlichen Domänen quantitativ zu evaluieren. Die Resultate zeigen, dass sich die Leistung von Cloud-Diensten bemerkenswert stabil verhält und dass ausgewählte Micro Benchmarks die Laufzeit einer wissenschaftlichen Computing-Anwendung mit einem relativen Fehler von weniger als 10% und die Antwortzeit einer Webserver-Anwendung mit einem relativen Fehler zwischen 10% und 20% abschätzen können. Zusammenfassend betont diese Arbeit die Wichtigkeit von Leistungsvergleichstests in der Cloud durch das Nachweisen der Eignung von Micro Benchmarks zum Abschätzen der Leistung einer Anwendung. Allerdings zeigt diese Arbeit auch auf, dass nur ausgewählte Micro Benchmarks für die Leistungsschätzung einer bestimmten Anwendung relevant sind.
PDF File Download
Export BibTeX