چکیده
مقدمه
مطالب
روش ها
نتایج
بحث
نتیجه گیری
منابع
Abstract
Introduction
Materials
Methods
Results
Discussion
Conclusions
References
چکیده
انگیزه اصلی رسیدگی به مشکلات در تفسیر داده ها یا کاهش دقت مدل است. اگرچه حریم خصوصی متفاوت می تواند تضمین های حفظ حریم خصوصی داده ها را ارائه دهد، اما مشکلاتی را نیز ایجاد می کند. بنابراین، ما باید در نظر بگیریم که تنظیم نویز برای حریم خصوصی آماری در حال حاضر بی نتیجه است. سهم اصلی این مقاله یافتن تعادل بین حریم خصوصی و دقت است. داده های آموزشی مدل های یادگیری عمیق ممکن است حاوی اطلاعات خصوصی یا حساس شرکت باشد. داده های آموزشی مدل های یادگیری عمیق ممکن است حاوی اطلاعات خصوصی یا حساس شرکت باشد. این ممکن است برای حملات خطرناک باشد و منجر به نشت داده های حریم خصوصی برای به اشتراک گذاری داده ها شود. بسیاری از استراتژیها برای حفاظت از حریم خصوصی هستند و حریم خصوصی آماری بیشترین کاربرد را دارد. گوگل در سال 2016 یک فناوری یادگیری فدرال را برای حل مشکل منبع داده ها پیشنهاد کرد. این فناوری می تواند اطلاعات را بدون تبادل داده های اصلی به اشتراک بگذارد و پیشرفت قابل توجهی در زمینه پزشکی داشته است. با این حال، هنوز خطر نشت داده ها در یادگیری فدرال وجود دارد. بنابراین، بسیاری از مدل ها در حال حاضر با مکانیسم های حریم خصوصی آماری برای به حداقل رساندن خطر استفاده می شوند. داده های حوزه مالی مشابه داده های پزشکی است که حاوی مقدار قابل توجهی از داده های شخصی است. نشت ممکن است عواقب غیرقابل کنترلی ایجاد کند و تبادل و اشتراک گذاری داده ها را دشوار کند. اجازه دهید فرض کنیم که حریم خصوصی متفاوت در زمینه مالی اعمال می شود. موسسات مالی می توانند خدماتی با ارزش و شخصی سازی بالاتر به مشتریان ارائه دهند و امتیازدهی اعتبار و مدیریت ریسک را خودکار کنند. متأسفانه، حوزه اقتصادی به ندرت حریم خصوصی متفاوتی را اعمال می کند و هیچ اتفاق نظری در مورد تنظیمات پارامتر حاصل نمی شود. این مطالعه امنیت دادهها را با مدلهای بصری مالی غیرخصوصی و حریم خصوصی آماری مقایسه میکند. این مقاله تعادلی بین حفاظت از حریم خصوصی با دقت مدل پیدا میکند. نتایج نشان میدهد که وقتی پارامتر از دست دادن حریم خصوصی e بین 12.62 و 5.41 باشد، مدلهای حریم خصوصی میتوانند از دادههای آموزشی محافظت کنند و دقت زیاد کاهش نمییابد.
توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.
Abstract
The primary motivation is to address difficulties in data interpretation or a reduction in model accuracy. Although differential privacy can provide data privacy guarantees, it also creates problems. Thus, we need to consider the noise setting for differential privacy is currently inconclusive. This paper’s main contribution is finding a balance between privacy and accuracy. The training data of deep learning models may contain private or sensitive corporate information. These may be dangerous to attacks, leading to privacy data leakage for data sharing. Many strategies are for privacy protection, and differential privacy is the most widely applied one. Google proposed a federated learning technology to solve the problem of data silos in 2016. The technology can share information without exchanging original data and has made significant progress in the medical field. However, there is still the risk of data leakage in federated learning; thus, many models are now used with differential privacy mechanisms to minimize the risk. The data in the financial field are similar to medical data, which contains a substantial amount of personal data. The leakage may cause uncontrollable consequences, making data exchange and sharing difficult. Let us suppose that differential privacy applies to the financial field. Financial institutions can provide customers with higher value and personalized services and automate credit scoring and risk management. Unfortunately, the economic area rarely applies differential privacy and attains no consensus on parameter settings. This study compares data security with non-private and differential privacy financial visual models. The paper finds a balance between privacy protection with model accuracy. The results show that when the privacy loss parameter is between 12.62 and 5.41, the privacy models can protect training data, and the accuracy does not decrease too much.
Introduction
Financial institutions are gradually moving towards a cooperative model of information sharing. The financial supervisory commission plans to provide financial API services. After obtaining customer authorization, banks can query customer or transaction information using financial APIs.
In addition to the financial API, in 2016, Google proposed a new data sharing technology—federated learning [1]. Joint members train the model individually. These members update the collaborative model by exchanging model gradients or parameters without original data. Federated learning can improve problems caused by data silos or data integration across enterprises. Federated learning has made significant progress in the medical field. For example, Taiwan recently participated in an international joint learning project. It successfully built a model with 94% accuracy to predict patients with COVID-O2 symptoms, leading to better clinical decisions [2].
Conclusions
This is the first paper to balance privacy guarantees and data readability for financial visual data. We compare the results with different privacy for different data types in the Table 3. This comparison shows data on how to find a balance between privacy and accuracy with DP-SGD.
There are three contributions to this research. The first was to provide a variety of demonstrations of financial vision with a differential privacy process, which can be a reference for those who need it. The second provides parameter selection criteria. The third specifies different privacy losses (ϵ) (that is, how much actual protections different ϵ can provide).