چکیده
1. مقدمه
2. کارهای مرتبط
3. پس زمینه
4. روش پیشنهادی
5. آزمایش و بحث
6. نتیجه گیری
تایید اخلاقی
اعلامیه منافع رقابتی
منابع
Abstract
1. Introduction
2. Related work
3. Background
4. Proposed method
5. Expriments and discussion
6. Conclusion
Ethical approval
Declaration of competing interest
References
چکیده
ارائه سرویسهای ذخیرهسازی و محاسباتی بدون پرداخت هزینه، به پذیرش گسترده رایانش ابری کمک کرده است. با استفاده از فناوری مجازی سازی، ارائه دهندگان خدمات ابری می توانند چندین نمونه را بر روی یک سرور فیزیکی واحد اجرا کنند و استفاده از منابع را به حداکثر برسانند. یک مسئله چالش برانگیز در مراکز داده ابری این است که منابع موجود به ندرت به طور کامل مورد استفاده قرار می گیرند. نرخ استفاده از سرور ضعیف و اغلب زیر 30٪ است. یک پیشبینی دقیق حجم کار میزبان، تخصیص منابع را افزایش میدهد که منجر به استفاده کارآمدتر از منابع میشود. اخیراً روشهای متعددی مبتنی بر یادگیری عمیق برای پیشبینی حجم کاری رایانش ابری توسعه یافتهاند. یک استراتژی کارآمد باید وابستگی های طولانی مدت به داده های بار کاری میزبان غیر ثابت را پیش بینی کند و به اندازه کافی سریع باشد تا به درخواست های دریافتی پاسخ دهد. این مطالعه از یک واحد دو طرفه دردار بازگشتی (BiGRU)، تبدیل موجک گسسته (DWT) و یک مکانیسم توجه برای بهبود دقت پیشبینی بار میزبان استفاده میکند. DWT برای تجزیه داده های ورودی به باندهای فرعی با فرکانس های مختلف و استخراج الگوها از داده های غیرخطی و غیر ثابت به منظور بهبود دقت پیش بینی استفاده می شود. ویژگی های استخراج شده برای پیش بینی حجم کاری آینده به BiGRu وارد می شوند. مکانیسم توجه به منظور استخراج ویژگی های همبستگی زمانی استفاده می شود. این مدل ترکیبی با مجموعه داده های خوشه ای از گوگل و علی بابا ارزیابی شد. نتایج تجربی نشان میدهد که روش ما در مقایسه با انواع روشهای پیشرفته، دقت پیشبینی را بین ۳ تا ۵۶ درصد بهبود میبخشد.
توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.
Abstract
Providing pay-as-you-go storage and computing services have contributed to the widespread adoption of cloud computing. Using virtualization technology, cloud service providers can execute several instances on a single physical server, maximizing resource utilization. A challenging issue in cloud data centers is that available resources are rarely fully utilized. The server utilization rate is poor and often below 30%. An accurate host workload prediction enhances resource allocation resulting in more efficient resource utilization. Recently, numerous methods based on deep learning for predicting cloud computing workload have been developed. An efficient strategy must predict long-term dependencies on nonstationary host workload data and be quick enough to respond to incoming requests. This study employs a Bidirectional Gated-Recurrent Unit (BiGRU), Discrete Wavelet Transformation (DWT), and an attention mechanism to improve the host load prediction accuracy. DWT is used to decompose input data into sub-bands with different frequencies and to extract patterns from nonlinear and nonstationary data in order to improve prediction accuracy. The extracted features are fed into BiGRu to predict future workload. The attention mechanism is used in order to extract the temporal correlation features. This hybrid model was evaluated with cluster data sets from Google and Alibaba. Experimental results reveal that our method improves prediction accuracy by 3% to 56% compared to a variety of state-of-the-art methods.
Introduction
Cloud computing indicates the on-demand accessibility of computer system resources, particularly data storage and computing resources, enabling the users to manage without direct intervention [1], [2]. Organizations can rent cloud computing services as an alternative to investing in their own computing infrastructure or data centers. [3]. The various pay-as-you-go cloud services not only enable clients to purchase resources on-demand [4] but also enables the provision of an infinite amount of resource capacity (e.g., CPU, memory, network, and disk) at a reasonable price without investing in infrastructure or incurring additional expenditures for maintenance [5], [6], [7]. The average capacity utilization rate for regular deployments is less than 40%, although businesses require a relatively large number of servers and other resources to ensure the quality of service (QoS) during peak periods [8], [9]. Fig. 1 depicts boxplots of CPU consumption over two working days for 50 Google cluster machines. Each record of this data represents the cumulative consumption in 5 min. As seen in Fig. 1, however, the average CPU utilization rarely exceeds 50%, and in most cases, it is less than 30%.
Conclusion
This article proposes a host workload prediction method in cloud computing by combining the DWT, BiGRU model and attention mechanism. In addition to learning long-term dependencies in BiGRU, DWT can decompose nonlinear and nonstationary data into predictable subbands in order to predict future host workload in cloud computing. The proposed approach was evaluated using two real-time host load trace datasets, the Google Cluster Database and the Alibaba Cluster. According to the experimental results, basic techniques cannot learn nonlinear data, mainly when random fluctuations occur in the data. However, the model presented in the proposed method shows good compatibility and achieves better results than DWT-LSTM, DWT-BPNN, DWT-SVR, LSTM, BPNN, and SVR in both datasets. Since distributed computing is increasingly oriented toward lightweight virtualization technologies such as containers, we will predict container workloads in the Docker and Kubernetes environments in future research. We run various applications in these environments, and a series of simulations will run to generate tasks and measure the container’s CPU load. Then, the workload will be predicted using machine learning models, and resource provisioning will be performed.