دانلود مقاله آنالیز عملگرهای منطق فازی قابل تمایز
ترجمه نشده

دانلود مقاله آنالیز عملگرهای منطق فازی قابل تمایز

عنوان فارسی مقاله: تجزیه و تحلیل عملگرهای منطق فازی قابل تمایز
عنوان انگلیسی مقاله: Analyzing Differentiable Fuzzy Logic Operators
مجله/کنفرانس: هوش مصنوعی - Artificial Intelligence
رشته های تحصیلی مرتبط: مهندسی کامپیوتر
گرایش های تحصیلی مرتبط: هوش مصنوعی
کلمات کلیدی فارسی: منطق فازی - هوش مصنوعی عصبی - نمادی - یادگیری با محدودیت ها
کلمات کلیدی انگلیسی: Fuzzy logic - Neural-symbolic AI - Learning with constraints
نوع نگارش مقاله: مقاله پژوهشی (Research Article)
شناسه دیجیتال (DOI): https://doi.org/10.1016/j.artint.2021.103602
نویسندگان: Emile van Krieken - Erman Acar - Frank van Harmelen
دانشگاه: Vrije Universiteit Amsterdam, Netherlands
صفحات مقاله انگلیسی: 46
ناشر: الزویر - Elsevier
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2022
ایمپکت فاکتور: 5.575 در سال 2021
شاخص H_index: 155 در سال 2022
شاخص SJR: 1.673 در سال 2021
شناسه ISSN: 0004-3702
شاخص Quartile (چارک): Q1 در سال 2021
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه نشده است
قیمت مقاله انگلیسی: رایگان
آیا این مقاله بیس است: بله
آیا این مقاله مدل مفهومی دارد: دارد
آیا این مقاله پرسشنامه دارد: ندارد
آیا این مقاله متغیر دارد: دارد
آیا این مقاله فرضیه دارد: ندارد
کد محصول: e16386
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
نوع رفرنس دهی: vancouver
فهرست مطالب (ترجمه)

چکیده

کلید واژه ها

1. مقدمه

2. منطق های دیفرانسیل پذیر

3. پیش زمینه

4. منطق فازی دیفرانسیل پذیر

5. مشتقات عملگرها

6. تجمع

7. ربط و انفصال

8. مفهوم

9. راه اندازی آزمایشی

10. نتایج

11. کارهای مرتبط

12. بحث

13. نتیجه گیری

پیوست A. پیشینه عملگرهای منطق فازی

پیوست B. پیاده سازی منطق فازی متمایز

پیوست C. اثبات

پیوست D. مشتقات توابع استفاده شده

پیوست E. منطق فازی محصول متفاوت

پیوست F. آزمایش های اضافی

منابع

فهرست مطالب (انگلیسی)

Abstract

Keywords

1. Introduction

2. Differentiable Logics

3. Background

4. Differentiable Fuzzy Logics

5. Derivatives of operators

6. Aggregation

7. Conjunction and disjunction

8. Implication

9. Experimental setup

10. Results

11. Related work

12. Discussion

13. Conclusion

Declaration of Competing Interest

Acknowledgements

Appendix A. Background on fuzzy logic operators

Appendix B. Implementation of Differentiable Fuzzy Logics

Appendix C. Proofs

Appendix D. Derivations of used functions

Appendix E. Differentiable Product Fuzzy Logic

Appendix F. Additional experiments

References

بخشی از مقاله (ترجمه ماشینی)

چکیده

     جامعه هوش مصنوعی به طور فزاینده ای توجه خود را به سمت ترکیب رویکردهای نمادین و عصبی معطوف می کند، زیرا اغلب استدلال می شود که نقاط قوت و ضعف این رویکردها مکمل یکدیگر هستند. یکی از گرایش‌های اخیر در ادبیات، تکنیک‌های یادگیری با نظارت ضعیف است که از عملگرهایی از منطق فازی استفاده می‌کند. به طور خاص، اینها از دانش پس زمینه قبلی که در چنین منطقی توضیح داده شده است برای کمک به آموزش شبکه عصبی از داده های بدون برچسب و نویز استفاده می کنند. با تفسیر نمادهای منطقی با استفاده از شبکه‌های عصبی، این دانش پس‌زمینه را می‌توان به توابع از دست دادن منظم اضافه کرد و از این رو استدلال را بخشی از یادگیری کرد.ما به طور رسمی و تجربی مطالعه می کنیم که چگونه مجموعه بزرگی از عملگرهای منطقی از ادبیات منطق فازی در یک محیط یادگیری متفاوت رفتار می کنند. ما متوجه شدیم که بسیاری از این اپراتورها، از جمله برخی از مشهورترین آنها، در این تنظیمات بسیار نامناسب هستند. یک یافته بیشتر به درمان استلزام در این منطق های فازی مربوط می شود و عدم تعادل قوی بین گرادیان های ناشی از مقدم و پیامد دلالت را نشان می دهد. علاوه بر این، ما خانواده جدیدی از مفاهیم فازی (به نام مفاهیم سیگموئیدی) را برای مقابله با این پدیده معرفی می کنیم. در نهایت، ما به‌طور تجربی نشان می‌دهیم که می‌توان از منطق‌های فازی متفاوت برای یادگیری نیمه‌نظارتی استفاده کرد و نحوه رفتار عملگرهای مختلف را در عمل مقایسه کرد. ما متوجه شدیم که برای دستیابی به بزرگترین بهبود عملکرد نسبت به یک خط پایه نظارت شده، باید به ترکیبات غیر استاندارد عملگرهای منطقی متوسل شویم که در یادگیری عملکرد خوبی دارند، اما دیگر قوانین منطقی معمول را برآورده نمی کنند.

توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.

بخشی از مقاله (انگلیسی)

Abstract

      The AI community is increasingly putting its attention towards combining symbolic and neural approaches, as it is often argued that the strengths and weaknesses of these approaches are complementary. One recent trend in the literature is weakly supervised learning techniques that employ operators from fuzzy logics. In particular, these use prior background knowledge described in such logics to help the training of a neural network from unlabeled and noisy data. By interpreting logical symbols using neural networks, this background knowledge can be added to regular loss functions, hence making reasoning a part of learning.

Introduction

     In recent years, integrating symbolic and statistical approaches to Artificial Intelligence (AI) gained considerable attention.This research line has gained further traction due to recent influential critiques on purely statistical deep learning [47,59], which has been the focus of the AI community in the last decade. While deep learning has brought many important breakthroughs in computer vision, natural language processing and reinforcement learning the concern is that progress will be halted if its shortcomings are not dealt with. Among these is the massive amounts of data that deep learning models need to learn even a simple concept. In contrast, symbolic AI can easily reuse concepts and can express domain knowledge using only a single logical statement. Finally, it is much easier to integrate background knowledge using symbolic AI.

Conclusion

     We analyzed Differentiable Fuzzy Logics in order to understand how reasoning using logical formulas behaves in a differentiable setting. We examined how the properties of a large amount of different operators affect DFL. We have found substantial differences between the properties of a large number of such Differentiable Fuzzy Logics operators, and we showed that many of them, including some of the most popular operators, are highly unsuitable for use in a differentiable learning setting. By analyzing aggregation functions, we found that the log-product aggregator and the RMSE aggregator have convenient connections to both fuzzy logic and machine learning and can deal with outliers. Next, we analyzed conjunction and disjunction operators and found several strong candidates. In particular, the Gödel t-norm and t-conorm are a simple choice, and that the Yager t-norm and the product t-conorm have intuitive derivatives.