دانلود مقاله فراتر از حریم خصوصی - اعمال حریم خصوصی افتراقی در هوش مصنوعی
ترجمه نشده

دانلود مقاله فراتر از حریم خصوصی - اعمال حریم خصوصی افتراقی در هوش مصنوعی

عنوان فارسی مقاله: فراتر از حریم خصوصی: اعمال حریم خصوصی تفاضلی در حوزه های کلیدی هوش مصنوعی
عنوان انگلیسی مقاله: More Than Privacy: Applying Differential Privacy in Key Areas of Artificial Intelligence
مجله/کنفرانس: معاملات IEEE در دانش و مهندسی داده - IEEE Transactions on Knowledge and Data Engineering
رشته های تحصیلی مرتبط: مهندسی کامپیوتر
گرایش های تحصیلی مرتبط: امنیت اطلاعات - مهندسی نرم افزار - هوش مصنوعی
کلمات کلیدی فارسی: حریم خصوصی افتراقی - هوش مصنوعی - یادگیری ماشینی - یادگیری عمیق - سیستم های چند عاملی
کلمات کلیدی انگلیسی: Differential privacy - artificial intelligence - machine learning - deep learning - multi-agent systems
نوع نگارش مقاله: مقاله پژوهشی (Research Article)
شناسه دیجیتال (DOI): https://doi.org/10.1109/TKDE.2020.3014246
لینک سایت مرجع: https://ieeexplore.ieee.org/document/9158374
نویسندگان: Tianqing Zhu - Dayong Ye - Wei Wang - Wanlei Zhou - Philip S. Yu
دانشگاه: School of Computer Science, China University of Geosciences, China
صفحات مقاله انگلیسی: 20
ناشر: آی تریپل ای - IEEE
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2022
ایمپکت فاکتور: 6.093 در سال 2020
شاخص H_index: 183 در سال 2022
شاخص SJR: 2.431 در سال 2020
شناسه ISSN: 1041-4347
شاخص Quartile (چارک): Q1 در سال 2020
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه نشده است
قیمت مقاله انگلیسی: رایگان
آیا این مقاله بیس است: خیر
آیا این مقاله مدل مفهومی دارد: ندارد
آیا این مقاله پرسشنامه دارد: ندارد
آیا این مقاله متغیر دارد: دارد
آیا این مقاله فرضیه دارد: ندارد
کد محصول: e17088
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
فهرست مطالب (ترجمه)

خلاصه

1. مقدمه

2 مقدماتی

3 حریم خصوصی متفاوت در یادگیری ماشین

4 حریم خصوصی متفاوت در یادگیری عمیق

5 حریم خصوصی متفاوت در سیستم های چند عاملی

6 جهت تحقیقات آینده

7 نتیجه گیری

منابع

فهرست مطالب (انگلیسی)

Abstract

1 Introduction

2 Preliminary

3 Differential Privacy in Machine Learning

4 Differential Privacy in Deep Learning

5 Differential Privacy in Multi-Agent Systems

6 Future Research Directions

7 Conclusion

References

بخشی از مقاله (ترجمه ماشینی)

چکیده

     هوش مصنوعی (AI) در سال‌های اخیر توجه زیادی را به خود جلب کرده است. با این حال، در کنار همه پیشرفت‌های آن، مشکلاتی مانند نقض حریم خصوصی، مسائل امنیتی و عدالت در مدل نیز پدیدار شده است. حریم خصوصی دیفرانسیل، به عنوان یک مدل ریاضی امیدوارکننده، دارای چندین ویژگی جذاب است که می تواند به حل این مشکلات کمک کند و آن را به یک ابزار کاملاً ارزشمند تبدیل می کند. به همین دلیل، حریم خصوصی متمایز به طور گسترده در هوش مصنوعی به کار گرفته شده است، اما تا به امروز، هیچ مطالعه ای مستند نکرده است که کدام مکانیسم های حریم خصوصی متمایز می تواند یا برای غلبه بر مشکلات آن یا ویژگی هایی که این امکان را می دهد، مورد استفاده قرار گیرد. در این مقاله، ما نشان می‌دهیم که حریم خصوصی متفاوت می‌تواند بیش از حفظ حریم خصوصی انجام دهد. همچنین می‌توان از آن برای بهبود امنیت، تثبیت یادگیری، ساخت مدل‌های منصفانه و تحمیل ترکیب در حوزه‌های انتخابی هوش مصنوعی استفاده کرد. با تمرکز بر یادگیری ماشینی منظم، یادگیری ماشینی توزیع شده، یادگیری عمیق و سیستم‌های چند عاملی، هدف این مقاله ارائه دیدگاه جدیدی در مورد بسیاری از احتمالات برای بهبود عملکرد هوش مصنوعی با تکنیک‌های حفظ حریم خصوصی متفاوت است.

توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.

بخشی از مقاله (انگلیسی)

Abstract

     Artificial Intelligence (AI) has attracted a great deal of attention in recent years. However, alongside all its advancements, problems have also emerged, such as privacy violations, security issues and model fairness. Differential privacy, as a promising mathematical model, has several attractive properties that can help solve these problems, making it quite a valuable tool. For this reason, differential privacy has been broadly applied in AI but to date, no study has documented which differential privacy mechanisms can or have been leveraged to overcome its issues or the properties that make this possible. In this paper, we show that differential privacy can do more than just privacy preservation. It can also be used to improve security, stabilize learning, build fair models, and impose composition in selected areas of AI. With a focus on regular machine learning, distributed machine learning, deep learning, and multi-agent systems, the purpose of this article is to deliver a new view on many possibilities for improving AI performance with differential privacy techniques.

Introduction

     Artificial Intelligence (AI) is one of the most prevalent topics of research today across almost every scientific field. For example, multi-agent systems can be applied to distributed control systems [1], while distributed machine learning has been adopted by Google for mobile users [2]. However, as AI becomes more and more reliant on data, several new problems have emerged, such as privacy violations, security issues, model instability, model fairness and communication overheads. As just a few of the tactics used to derail AI, adversarial samples can fool machine learning models, leading to incorrect results. Multi-agent systems may receive false information from malicious agents. As a result, many researchers have been exploring new and existing security and privacy tools to tackle these new emerging problems. Differential privacy is one of these tools.

     Differential privacy is a prevalent privacy preservation model which guarantees whether an individual’s information is included in a dataset has little impact on the aggregate output. Fig. 1 illustrates a basic differential privacy framework using the following example. Consider two datasets that are almost identical but differ in only one record and that, access to the datasets is provided via a query function f. If we can find a mechanism that can query both datasets and obtain the same outputs, we can claim that differential privacy is satisfied. In that scenario, an adversary cannot associate the query outputs with either of the two neighbouring datasets, so the one different record is safe. Hence, the differential privacy guarantees that, even if an adversary knows all the other records in a dataset except for one unknown individual, they still cannot infer the information of that unknown record.

Conclusion

     In this paper, we investigated the use of differential privacy in selected areas of AI. We described the critical issues facing AI and the basic concepts of differential privacy, highlighting how differential privacy can be applied to solving some of these problems. We discussed the strengths and limitations of the current studies in each of these areas and also pointed out the potential research areas of AI where the benefits of differential privacy remain untapped. In addition to the three areas of focus in this article – machine learning, deep learning and multi-agent learning – there are many other interesting areas of research in AI that have also leveraged differential privacy, such as natural language processing, computer vision, robotics, etc. Surveying differential privacy in these areas is something we intend to do in future work.