مقاله انگلیسی به سمت توضیحات قوی برای شبکه های عصبی عمیق
ترجمه نشده

مقاله انگلیسی به سمت توضیحات قوی برای شبکه های عصبی عمیق

عنوان فارسی مقاله: به سمت توضیحات قوی برای شبکه های عصبی عمیق
عنوان انگلیسی مقاله: Towards robust explanations for deep neural networks
مجله/کنفرانس: الگو شناسی - Pattern Recognition
رشته های تحصیلی مرتبط: مهندسی کامپیوتر
گرایش های تحصیلی مرتبط: مهندسی نرم افزار، هوش مصنوعی
کلمات کلیدی فارسی: روش توضیح، نقشه شوری، حملات خصمانه، دستکاری - اعمال نفوذ، شبکه های عصبی
کلمات کلیدی انگلیسی: Explanation method - Saliency map - Adversarial attacks - Manipulation - Neural networks
نوع نگارش مقاله: مقاله پژوهشی (Research Article)
نمایه: Scopus - Master Journals List - JCR
شناسه دیجیتال (DOI): https://doi.org/10.1016/j.patcog.2021.108194
دانشگاه: ـ
صفحات مقاله انگلیسی: 20
ناشر: الزویر - Elsevier
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2021
ایمپکت فاکتور: 7.740 در سال 2020
شاخص H_index: 210 در سال 2020
شاخص SJR: 1.492 در سال 2020
شناسه ISSN: 0031-3203
شاخص Quartile (چارک): Q1 در سال 2020
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه نشده است
قیمت مقاله انگلیسی: رایگان
آیا این مقاله بیس است: خیر
آیا این مقاله مدل مفهومی دارد: ندارد
آیا این مقاله پرسشنامه دارد: ندارد
آیا این مقاله متغیر دارد: ندارد
آیا این مقاله فرضیه دارد: ندارد
کد محصول: E15603
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
فهرست مطالب (انگلیسی)

Abstract
Graphical abstract
Keywords
Introduction
Theoretical considerations
Methods for robuster explanations
Experimental analysis
Conclusion
Declaration of Competing Interest
Acknowledgments
Appendix A. Proof of Theorem 1
Appendix B. Relu networks
Appendix C. Interchangeability of softplus 
Appendix D. Experimental analysis
Appendix E. Hessian norm approximation
Appendix F. Additional network structures and data sets
Appendix G. Targeted adversarial attacks
Appendix H. Accuracy-robustnes tradeoff
References

بخشی از مقاله (انگلیسی)

abstract
Explanation methods shed light on the decision process of black-box classifiers such as deep neural networks. But their usefulness can be compromised because they are susceptible to manipulations. With this work, we aim to enhance the resilience of explanations. We develop a unified theoretical framework for deriving bounds on the maximal manipulability of a model. Based on these theoretical insights, we present three different techniques to boost robustness against manipulation: training with weight decay, smoothing activation functions, and minimizing the Hessian of the network. Our experimental results confirm the effectiveness of these approaches.
Introduction
In recent years, deep neural networks have revolutionized many different areas. Despite their impressive performance, the reasoning behind their decision processes remains difficult to grasp for humans. This can limit their usefulness in applications that require transparency. Explanation methods promise to make neural networks interpretable.