شناخت محدوده بین هسته ای حافظه سطح بالا جهت بهره برداری از ترافیک موجود در GPGPUs
ترجمه شده

شناخت محدوده بین هسته ای حافظه سطح بالا جهت بهره برداری از ترافیک موجود در GPGPUs

عنوان فارسی مقاله: LA-LLC: شناخت محدوده بین هسته ای حافظه سطح بالا به منظور بهره برداری از ترافیک موجود در GPGPUs
عنوان انگلیسی مقاله: LA-LLC: Inter-Core Locality-Aware Last-Level Cache to Exploit Many-to-Many Traffic in GPGPUs
مجله/کنفرانس: اسناد معماری کامپیوتر - COMPUTER ARCHITECTURE LETTERS
رشته های تحصیلی مرتبط: مهندسی کامپیوتر
گرایش های تحصیلی مرتبط: معماری سیستم های کامپیوتری و سخت افزار کامپیوتر
کلمات کلیدی فارسی: GPGPU ،NoC، محدوده بین هسته ای، LLC
کلمات کلیدی انگلیسی: GPGPU - NoC - inter-core locality - LLC
شناسه دیجیتال (DOI): https://doi.org/10.1109/LCA.2016.2611663
دانشگاه: دانشگاه گنت، بلژیک
صفحات مقاله انگلیسی: 4
صفحات مقاله فارسی: 13
ناشر: آی تریپل ای - IEEE
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2017
ایمپکت فاکتور: 2.033 در سال 2019
شاخص H_index: 33 در سال 2020
شاخص SJR: 0.334 در یال 2019
ترجمه شده از: انگلیسی به فارسی
شناسه ISSN: 1556-6056
شاخص Quartile (چارک): Q3 در سال 2019
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه شده و آماده دانلود
فرمت ترجمه فارسی: pdf و ورد تایپ شده با قابلیت ویرایش
مشخصات ترجمه: تایپ شده با فونت B Nazanin 14
مقاله بیس: خیر
مدل مفهومی: ندارد
کد محصول: 8389
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
پرسشنامه: ندارد
متغیر: ندارد
درج شدن منابع داخل متن در ترجمه: خیر
ترجمه شدن توضیحات زیر تصاویر و جداول: بله
ترجمه شدن متون داخل تصاویر و جداول: خیر
رفرنس در ترجمه: درج نشده است
نمونه ترجمه فارسی مقاله

چکیده

شبکه ی  پاسخ ,  یک تنگراه اجرائی سر سخت  در واحد پردازش گرافیکی هدف (GPGPUs) می باشد.  به طوریکه مسیر ارتباطی از کنترل کنندگان حافظه ( MC ) به سمت هسته ها ,  اغلب شلوغ  است. در این مقاله , ما در یافته ایم که  به جای تکیه بر مسیر ارتباطی شلوغ بین MCs  ها و هسته ها , مسیر ارتباطی هسته به هسته ی از دست رفته , می تواند به منظور ارسال بلاک های داده ای بین هسته ها به کار گرفته شود. طبق نظر ما , آگاهی محدوده ی بین هسته ای حافظه ی سطح بالا (GPGPUs) , تنها نیاز به جند بیت در هر بلوک حافظه ی پنهان داشته و  هسته را قادر به واکشی داده ی به اشتراک گذارده شده از هسته ی محلی  دیگر حافظه ی پنهان , به جای LLC می کند.  با اتفاق افتادن  نفوذ ارتباط بین هسته ای , LA-LLC , ارتباط  few- to-many را به many-to-many تبدیل  می کند, در نتیجه  ,  تنگنای شبکه ی پاسخ اتفاق می افتد. برای مجموعه ای از برنامه های کاربردی ارائه شده در درجات مختلف از محدوده ی بین هسته ای ,  LA-LLC به کاهش زمان تاخیر دسترسی به حافظه پرداخته  و مقدار کارایی با میانگین  21.1  و بالای 68 درصد را با هزینه ی سخت افزاری ناچیز افزایش می دهد.

1. مقدمه 

GPGPUs  ازمعماری  تک دستوری  چند رشته ای ( SIMT ) استفاده کرده و از اهرم  متقارن سطح رشته (TLP ) به منظور پنهان ساختن  تاخیر دسترسی به حافظه بهره می برد. هر چند که بسیاری از برنامه های  GPGPUs  به تولید تعداد زیادی از  دسترسی های حافظه  که اطمینان بسیاری را در سیستم های حافظه  و شبکه ی اتصال یافته ی داخلی به وجود می آورند , می پردازند. تنها با تکیه بر TLP  نمی توان تاخیر دسترسی به حافظه را پنهان ساخت . بر طبق نتایج به دست آمده  , عملکرد های مربوط به حافظه دچار تنگنای اجرایی سختی می باشند. اگر چه کار های بسیاری به منظور بهینه ساختن سیستم حافظه صورت گرفته است , اما  توجه کمی به تاخیر شبکه که  نقش مهمی را در تمامی  تاخیرات  دسترسی های  مربوط به حافظه  دارد , شده است

نمونه متن انگلیسی مقاله

Abstract

The reply network is a severe performance bottleneck in General Purpose Graphic Processing Units (GPGPUs), as the communication path from memory controllers (MC) to cores is often congested. In this paper, we find that instead of relying on the congested communication path between MCs and cores, the unused core-to-core communication path can be leveraged to transfer data blocks between cores. We propose the inter-core Locality-Aware Last-Level Cache (LA-LLC), which requires only few bits per cache block and enables a core to fetch shared data from another core’s private cache instead of the LLC. Leveraging inter-core communication, LA-LLC transforms few-to-many traffic to many-tomany traffic, thereby mitigating the reply network bottleneck. For a set of applications exhibiting varying degrees of inter-core locality, LA-LLC reduces memory access latency and increases performance by 21.1 percent on average and up to 68 percent, with negligible hardware cost.

1 INTRODUCTION

GPGPUS exploit the single-instruction multiple-thread (SIMT) architecture and leverage thread-level parallelism (TLP) to hide memory access latency. However, many GPGPU applications generate a large number of memory accesses which increases the pressure on the memory system and interconnection network. Solely relying on TLP cannot completely hide memory access latency and as a result, memory operations become a severe performance bottleneck. Although a lot of work has been done to optimize the memory system, few pay attention to network latency, which plays an important role in the overall memory access latency [1], [2].

ترجمه فارسی فهرست مطالب

چکیده

1. مقدمه

2. زمینه و انگیزه

3. معماری LA-LLC

4. ارزیابی

5. کار مربوطه

6. نتیجه گیری

فهرست انگلیسی مطالب

Abstract

1 INTRODUCTION

2 BACKGROUND AND MOTIVATION

3 ARCHITECTURE OF LA-LLC

4 EVALUATION

5 RELATED WORK

6 CONCLUSION

محتوای این محصول:
- اصل مقاله انگلیسی با فرمت pdf
- ترجمه فارسی مقاله با فرمت ورد (word) با قابلیت ویرایش، بدون آرم سایت ای ترجمه
- ترجمه فارسی مقاله با فرمت pdf، بدون آرم سایت ای ترجمه
قیمت محصول: ۲۸,۲۰۰ تومان
خرید محصول