دانلود مقاله درباره فشرده سازی مدل های عمیق به وسیله رتبه پایین و تجزیه تنک
ترجمه شده

دانلود مقاله درباره فشرده سازی مدل های عمیق به وسیله رتبه پایین و تجزیه تنک

عنوان فارسی مقاله: درباره فشرده سازی مدل های عمیق به وسیله رتبه پایین و تجزیه تنک
عنوان انگلیسی مقاله: On Compressing Deep Models by Low Rank and Sparse Decomposition
مجله/کنفرانس: کنفرانس IEEE در مورد بینایی کامپیوتر و تشخیص الگو - IEEE Conference on Computer Vision and Pattern Recognition
رشته های تحصیلی مرتبط: مهندسی کامپیوتر
گرایش های تحصیلی مرتبط: هوش مصنوعی - مهندسی الگوریتم ها و محاسبات
شناسه دیجیتال (DOI): https://doi.org/10.1109/CVPR.2017.15
لینک سایت مرجع: https://ieeexplore.ieee.org/document/8099498
نویسندگان: Xiyu Yu - Xinchao Wang - Dacheng Tao
دانشگاه: FEIT، دانشگاه سیدنی
صفحات مقاله انگلیسی: 10
صفحات مقاله فارسی: 22
ناشر: آی تریپل ای - IEEE
نوع ارائه مقاله: کنفرانس
نوع مقاله: ISI
سال انتشار مقاله: 2017
ایمپکت فاکتور: 21.762 در سال 2023
شاخص H_index: 531 در سال 2024
شاخص SJR: 10.331 در سال 2023
ترجمه شده از: انگلیسی به فارسی
شناسه ISSN: 1063-6919
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه شده و آماده دانلود
فرمت ترجمه فارسی: pdf و ورد تایپ شده با قابلیت ویرایش
مشخصات ترجمه: تایپ شده با فونت B Nazanin 14
فرمول و علائم در ترجمه: به صورت عکس درج شده است
مقاله بیس: خیر
مدل مفهومی: ندارد
کد محصول: 12636
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
پرسشنامه: ندارد
متغیر: ندارد
فرضیه: ندارد
درج شدن منابع داخل متن در ترجمه: به صورت عدد درج شده است
ترجمه شدن توضیحات زیر تصاویر و جداول: بله
ترجمه شدن متون داخل تصاویر و جداول: بله
رفرنس در ترجمه: در داخل متن و انتهای مقاله درج شده است
ضمیمه: ندارد
پاورقی: درج نشده است
نمونه ترجمه فارسی مقاله

1. مقدمه
     یادگیری عمیق در زمینه‌های مختلفی از جمله طبقه‌بندی تصویر  [15، 23، 25، 9] و تشخیص شی [21] بهبود چشمگیری داشته است. با این حال، محاسبات شدید و نیازمندی‌های حافظه از اکثر مدل‌های عمیق، استفاده از دستگاه‌های روزمره با فضای ذخیره‌سازی کم و قابلیت‌های محاسباتی ضعیف مانند تلفن‌های همراه و دستگاه‌های تعبیه‌شده را محدود می‌سازد. این محدودیت‌ها سبب انگیزه پژوهشگران شده است تا بدین شکل از افزونگی ذاتی موجود در پارامترها و نقشه‌های ویژگی در مدل‌های عمیق استفاده کنند. به طور کلی این افزونگی در ماهیت ساختاری ماتریس‌های وزنی و نقشه‌های ویژگی منعکس شده است [3، 24]. با حذف افزونگی، منابع را می‌توان بدون تاثیرگذاری بر ظرفیت و قابلیت تعمیم اکثر مدل‌های عمیق حفظ کرد.
     تنکی و رتبه‌های پایین به عنوان مفروضات ساختارهای حیاتی در کارهای قبلی برای حذف افزونگی هستند. نخست، هرس‌سازی یک استراتژی ساده برای حذف پارامترهای همبسته و نورون‌های مشترک تطبیقی است و برای کسب ساختارهای تنک است. برای مثال، لیکون و همکاران [16] اطلاعات مشتق درجه دوم برای هدایت فرآیند حذف وزن‌های غیرمهم استفاده کردند. هان و همکاران [8] به آموزش مجدد  تکرارشونده یک مدل تنک شده با حذف وزن بی‌اهمیت با استفاده از روش آستانه‌سازی  سخت پرداختند. هی و همکاران [10] از مقیاس‌هایی مانند هنجار l1 از وزن‌های غیرپیوندی برای شناسایی نورون‌های غیر ضروری استفاده کردند. ماریس و سرا [19] به نمونه‌بردرای از غیرهمبسته‌ترین نورون‌ها با فرآیندهای تعیین نقطه پرداختند و سایر نورون‌ها با همبستگی بسیار بالا را حذف کردند. فرض ساختاری دیگری در حالت فاقد رتبه پایین است. وزن‌ها در لایه‌های پیچشی و کامل متصل شده را می‌توان توسط فیلترهای تقریب رتبه‌پایین کاهش داد [4، 27، 14]. ژانگ و همکاران [30] یک زیر فضای رتبه‌پایین برای بردارهای ویژگی را ارائه دادند که منجر به تجزیه ماتریس وزن، کاهش پارامتر و زمان تست سریعتر شده بود.

7. نتیجه‌گیری
در این مقاله ما چارچوب فشرده‌سازی عمیق یکپارچه‌ای را پیشنهاد دادیم که به تجزیه ماتریس‌های وزن به مولفه‌های وزنی و رتبه‌پایین می‌پرداخت. در قیاس با SVD های سنتی و روش‌های هرس‌سازی، مدل پیشنهادی به طور قابل توجهی سبب بهبود عملکرد پیش از آموزش مجدد می‌شود به خصوص زمانی که بازسازی‌های نقشه ویژگی درون چارچوب ادغام شده است. این عملکرد بالا مقداردهی اولیه بهتری را برای آموزش‌های مجدد بعدی فراهم می‌سازد که به مدل پیشنهادی ما برای دستیابی به نرخ فشرده‌سازی بالاتری بدون از دست رفتن دقت برای بسیاری از مدل‌های محبوب کمک می‌کند. ما حداکثر می‌توانیم در حدود 15 برابر فضای ذخیره‌سازی را حفظ کنیم که بدین شکل روش ما بسیاری از رویکردهای جدید که به استفاده از یک استراتژی می‌پرداختند را شکست می‌دهد.

نمونه متن انگلیسی مقاله

1. Introduction

     Deep learning has delivered significant improvements in several fields including image classification [15, 23, 25, 9] and object detection [21]. However, the intensive computational and memory requirements of most deep models limit their deployment on daily use devices with low storages and computing capabilities such as cellphones and embedded devices. This limitation has motivated researchers to exploit the intrinsic redundancy found in parameters and feature maps in deep models. Generally, this redundancy is reflected in the structured nature of the weight matrices and feature maps [3, 24]. By removing the redundancy, resources can be saved without affecting the capacity and generalizability of most deep models.

     Sparsity and low-rankness independently acted as vital structure assumptions in the previous work for redundancy removal. First, pruning is a straightforward strategy to remove correlated parameters and co-adapted neurons, and to obtain sparse structures. For example, LeCun et al. [16] used the second derivative information to guide the removal of unimportant weights. Han et al. [8] repeatedly retrained a sparsified model with unimportant weights removed using a hard thresholding method. He et al. [10] used measures like l1 norm of out-linked weights to identify unimportant neurons. Mariet and Sra [19] sampled the most uncorrelated neurons by the determinant point processes, and removed other highly correlated neurons. Another structure assumption is the low-rankness. Weights in the convolutional and fully connected layers can be reduced by approximating low-rank filters [4, 27, 14]. Zhang et al. [30] estimated a low-rank subspace for the feature vectors that resulted in weight matrix decomposition, parameter reduction, and faster testing time.

7. Conclusion

     Here we propose a unified deep compression framework that decomposes weight matrices into their low-rank and sparse components. Compared to traditional SVDs and pruning methods, the proposed model significantly improves the performance prior to retraining, especially when feature map reconstructions are integrated into the framework. This high performance provides a better initialization for the subsequent retraining, which helps the proposed model to achieve high compression rates without loss of accuracy for many popular models. We can save at most 15× storage space, which beats many recent methods using a single strategy

تصویری از فایل ترجمه

    

    

(جهت بزرگ نمایی روی عکس کلیک نمایید)

ترجمه فارسی فهرست مطالب

چکیده
1. مقدمه
2. کار مرتبط
3. مدل فشرده‌سازی عمیق
4. بهینه‌سازی
5. تجزیه و تحلیل نظری
6. آزمایشات
1. 6 تجزیه و تحلیل در کل شبکه‌ها
2 .6 تجزیه و تحلیل در لایه‌های پیچشی
7. نتیجه‌گیری
منابع

فهرست انگلیسی مطالب

Abstract
1. Introduction
2. Related Work
3. Deep Compression Model
4. Optimization
5. Theoretical Analysis
6. Experiments
6.1. Analysis on the Whole Networks
6.2. Analysis on the Convolutional Layers
7. Conclusion
References

محتوای این محصول:
- اصل مقاله انگلیسی با فرمت pdf
- ترجمه فارسی مقاله با فرمت ورد (word) با قابلیت ویرایش، بدون آرم سایت ای ترجمه
- ترجمه فارسی مقاله با فرمت pdf، بدون آرم سایت ای ترجمه
قیمت محصول: ۳۳,۰۰۰ تومان
خرید محصول
بدون دیدگاه