چکیده
کلید واژه ها
1. مقدمه
2. منطق های دیفرانسیل پذیر
3. پیش زمینه
4. منطق فازی دیفرانسیل پذیر
5. مشتقات عملگرها
6. تجمع
7. ربط و انفصال
8. مفهوم
9. راه اندازی آزمایشی
10. نتایج
11. کارهای مرتبط
12. بحث
13. نتیجه گیری
پیوست A. پیشینه عملگرهای منطق فازی
پیوست B. پیاده سازی منطق فازی متمایز
پیوست C. اثبات
پیوست D. مشتقات توابع استفاده شده
پیوست E. منطق فازی محصول متفاوت
پیوست F. آزمایش های اضافی
منابع
Abstract
Keywords
1. Introduction
2. Differentiable Logics
3. Background
4. Differentiable Fuzzy Logics
5. Derivatives of operators
6. Aggregation
7. Conjunction and disjunction
8. Implication
9. Experimental setup
10. Results
11. Related work
12. Discussion
13. Conclusion
Declaration of Competing Interest
Acknowledgements
Appendix A. Background on fuzzy logic operators
Appendix B. Implementation of Differentiable Fuzzy Logics
Appendix C. Proofs
Appendix D. Derivations of used functions
Appendix E. Differentiable Product Fuzzy Logic
Appendix F. Additional experiments
References
چکیده
جامعه هوش مصنوعی به طور فزاینده ای توجه خود را به سمت ترکیب رویکردهای نمادین و عصبی معطوف می کند، زیرا اغلب استدلال می شود که نقاط قوت و ضعف این رویکردها مکمل یکدیگر هستند. یکی از گرایشهای اخیر در ادبیات، تکنیکهای یادگیری با نظارت ضعیف است که از عملگرهایی از منطق فازی استفاده میکند. به طور خاص، اینها از دانش پس زمینه قبلی که در چنین منطقی توضیح داده شده است برای کمک به آموزش شبکه عصبی از داده های بدون برچسب و نویز استفاده می کنند. با تفسیر نمادهای منطقی با استفاده از شبکههای عصبی، این دانش پسزمینه را میتوان به توابع از دست دادن منظم اضافه کرد و از این رو استدلال را بخشی از یادگیری کرد.ما به طور رسمی و تجربی مطالعه می کنیم که چگونه مجموعه بزرگی از عملگرهای منطقی از ادبیات منطق فازی در یک محیط یادگیری متفاوت رفتار می کنند. ما متوجه شدیم که بسیاری از این اپراتورها، از جمله برخی از مشهورترین آنها، در این تنظیمات بسیار نامناسب هستند. یک یافته بیشتر به درمان استلزام در این منطق های فازی مربوط می شود و عدم تعادل قوی بین گرادیان های ناشی از مقدم و پیامد دلالت را نشان می دهد. علاوه بر این، ما خانواده جدیدی از مفاهیم فازی (به نام مفاهیم سیگموئیدی) را برای مقابله با این پدیده معرفی می کنیم. در نهایت، ما بهطور تجربی نشان میدهیم که میتوان از منطقهای فازی متفاوت برای یادگیری نیمهنظارتی استفاده کرد و نحوه رفتار عملگرهای مختلف را در عمل مقایسه کرد. ما متوجه شدیم که برای دستیابی به بزرگترین بهبود عملکرد نسبت به یک خط پایه نظارت شده، باید به ترکیبات غیر استاندارد عملگرهای منطقی متوسل شویم که در یادگیری عملکرد خوبی دارند، اما دیگر قوانین منطقی معمول را برآورده نمی کنند.
توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.
Abstract
The AI community is increasingly putting its attention towards combining symbolic and neural approaches, as it is often argued that the strengths and weaknesses of these approaches are complementary. One recent trend in the literature is weakly supervised learning techniques that employ operators from fuzzy logics. In particular, these use prior background knowledge described in such logics to help the training of a neural network from unlabeled and noisy data. By interpreting logical symbols using neural networks, this background knowledge can be added to regular loss functions, hence making reasoning a part of learning.
Introduction
In recent years, integrating symbolic and statistical approaches to Artificial Intelligence (AI) gained considerable attention.This research line has gained further traction due to recent influential critiques on purely statistical deep learning [47,59], which has been the focus of the AI community in the last decade. While deep learning has brought many important breakthroughs in computer vision, natural language processing and reinforcement learning the concern is that progress will be halted if its shortcomings are not dealt with. Among these is the massive amounts of data that deep learning models need to learn even a simple concept. In contrast, symbolic AI can easily reuse concepts and can express domain knowledge using only a single logical statement. Finally, it is much easier to integrate background knowledge using symbolic AI.
Conclusion
We analyzed Differentiable Fuzzy Logics in order to understand how reasoning using logical formulas behaves in a differentiable setting. We examined how the properties of a large amount of different operators affect DFL. We have found substantial differences between the properties of a large number of such Differentiable Fuzzy Logics operators, and we showed that many of them, including some of the most popular operators, are highly unsuitable for use in a differentiable learning setting. By analyzing aggregation functions, we found that the log-product aggregator and the RMSE aggregator have convenient connections to both fuzzy logic and machine learning and can deal with outliers. Next, we analyzed conjunction and disjunction operators and found several strong candidates. In particular, the Gödel t-norm and t-conorm are a simple choice, and that the Yager t-norm and the product t-conorm have intuitive derivatives.