دانلود مقاله حفاظت از اشتراک گذاری داده ها
ترجمه نشده

دانلود مقاله حفاظت از اشتراک گذاری داده ها

عنوان فارسی مقاله: حفاظت از اشتراک گذاری داده ها برای حریم خصوصی از دیدگاه مالی
عنوان انگلیسی مقاله: The Protection of Data Sharing for Privacy in Financial Vision
مجله/کنفرانس: علوم کاربردی - Applied Science
رشته های تحصیلی مرتبط: کامپیوتر - مدیریت
گرایش های تحصیلی مرتبط: امنیت اطلاعات - مدیریت مالی
کلمات کلیدی فارسی: دیدگاه مالی - Gramian Angular Field (GAF) - محرمانگی آماری - private aggregation of teacher ensembles (PATE) - گرادیان کاهش نزولی خصوصی تصادفی آماری (DP-SG
کلمات کلیدی انگلیسی: financial vision; Gramian Angular Field (GAF); differential privacy; private aggregation of teacher ensembles (PATE); differentially private stochastic gradient descent (DP-SGD)
نوع نگارش مقاله: مقاله پژوهشی (Research Article)
شناسه دیجیتال (DOI): https://doi.org/10.3390/app12157408
نویسندگان: Yi-Ren Wang - Yun-Cheng Tsai
دانشگاه: National Taiwan Normal University, Taiwan
صفحات مقاله انگلیسی: 22
ناشر: mdpi
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2022
ایمپکت فاکتور: 3.143 در سال 2020
شاخص H_index: 75 در سال 2022
شاخص SJR: 0.507 در سال 2020
شناسه ISSN: 2076-3417
شاخص Quartile (چارک): Q2 در سال 2020
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه نشده است
قیمت مقاله انگلیسی: رایگان
آیا این مقاله بیس است: خیر
آیا این مقاله مدل مفهومی دارد: ندارد
آیا این مقاله پرسشنامه دارد: ندارد
آیا این مقاله متغیر دارد: ندارد
آیا این مقاله فرضیه دارد: ندارد
کد محصول: e17003
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
نوع رفرنس دهی: vancouver
فهرست مطالب (ترجمه)

چکیده

مقدمه

مطالب

روش ها

نتایج

بحث

نتیجه گیری

منابع

فهرست مطالب (انگلیسی)

Abstract

Introduction

Materials

Methods

Results

Discussion

Conclusions

References

بخشی از مقاله (ترجمه ماشینی)

چکیده

     انگیزه اصلی رسیدگی به مشکلات در تفسیر داده ها یا کاهش دقت مدل است. اگرچه حریم خصوصی متفاوت می تواند تضمین های حفظ حریم خصوصی داده ها را ارائه دهد، اما مشکلاتی را نیز ایجاد می کند. بنابراین، ما باید در نظر بگیریم که تنظیم نویز برای حریم خصوصی  آماری در حال حاضر بی نتیجه است. سهم اصلی این مقاله یافتن تعادل بین حریم خصوصی و دقت است. داده های آموزشی مدل های یادگیری عمیق ممکن است حاوی اطلاعات خصوصی یا حساس شرکت باشد. داده های آموزشی مدل های یادگیری عمیق ممکن است حاوی اطلاعات خصوصی یا حساس شرکت باشد. این ممکن است برای حملات خطرناک باشد و منجر به نشت داده های حریم خصوصی برای به اشتراک گذاری داده ها شود. بسیاری از استراتژی‌ها برای حفاظت از حریم خصوصی هستند و حریم خصوصی آماری بیشترین کاربرد را دارد. گوگل در سال 2016 یک فناوری یادگیری فدرال را برای حل مشکل منبع داده ها پیشنهاد کرد. این فناوری می تواند اطلاعات را بدون تبادل داده های اصلی به اشتراک بگذارد و پیشرفت قابل توجهی در زمینه پزشکی داشته است. با این حال، هنوز خطر نشت داده ها در یادگیری فدرال وجود دارد. بنابراین، بسیاری از مدل ها در حال حاضر با مکانیسم های حریم خصوصی آماری برای به حداقل رساندن خطر استفاده می شوند. داده های حوزه مالی مشابه داده های پزشکی است که حاوی مقدار قابل توجهی از داده های شخصی است. نشت ممکن است عواقب غیرقابل کنترلی ایجاد کند و تبادل و اشتراک گذاری داده ها را دشوار کند. اجازه دهید فرض کنیم که حریم خصوصی متفاوت در زمینه مالی اعمال می شود. موسسات مالی می توانند خدماتی با ارزش و شخصی سازی بالاتر به مشتریان ارائه دهند و امتیازدهی اعتبار و مدیریت ریسک را خودکار کنند. متأسفانه، حوزه اقتصادی به ندرت حریم خصوصی متفاوتی را اعمال می کند و هیچ اتفاق نظری در مورد تنظیمات پارامتر حاصل نمی شود. این مطالعه امنیت داده‌ها را با مدل‌های بصری مالی غیرخصوصی و حریم خصوصی آماری مقایسه می‌کند. این مقاله تعادلی بین حفاظت از حریم خصوصی با دقت مدل پیدا می‌کند. نتایج نشان می‌دهد که وقتی پارامتر از دست دادن حریم خصوصی e بین 12.62 و 5.41 باشد، مدل‌های حریم خصوصی می‌توانند از داده‌های آموزشی محافظت کنند و دقت زیاد کاهش نمی‌یابد.

توجه! این متن ترجمه ماشینی بوده و توسط مترجمین ای ترجمه، ترجمه نشده است.

بخشی از مقاله (انگلیسی)

Abstract

     The primary motivation is to address difficulties in data interpretation or a reduction in model accuracy. Although differential privacy can provide data privacy guarantees, it also creates problems. Thus, we need to consider the noise setting for differential privacy is currently inconclusive. This paper’s main contribution is finding a balance between privacy and accuracy. The training data of deep learning models may contain private or sensitive corporate information. These may be dangerous to attacks, leading to privacy data leakage for data sharing. Many strategies are for privacy protection, and differential privacy is the most widely applied one. Google proposed a federated learning technology to solve the problem of data silos in 2016. The technology can share information without exchanging original data and has made significant progress in the medical field. However, there is still the risk of data leakage in federated learning; thus, many models are now used with differential privacy mechanisms to minimize the risk. The data in the financial field are similar to medical data, which contains a substantial amount of personal data. The leakage may cause uncontrollable consequences, making data exchange and sharing difficult. Let us suppose that differential privacy applies to the financial field. Financial institutions can provide customers with higher value and personalized services and automate credit scoring and risk management. Unfortunately, the economic area rarely applies differential privacy and attains no consensus on parameter settings. This study compares data security with non-private and differential privacy financial visual models. The paper finds a balance between privacy protection with model accuracy. The results show that when the privacy loss parameter is between 12.62 and 5.41, the privacy models can protect training data, and the accuracy does not decrease too much.

Introduction

     Financial institutions are gradually moving towards a cooperative model of information sharing. The financial supervisory commission plans to provide financial API services. After obtaining customer authorization, banks can query customer or transaction information using financial APIs.

     In addition to the financial API, in 2016, Google proposed a new data sharing technology—federated learning [1]. Joint members train the model individually. These members update the collaborative model by exchanging model gradients or parameters without original data. Federated learning can improve problems caused by data silos or data integration across enterprises. Federated learning has made significant progress in the medical field. For example, Taiwan recently participated in an international joint learning project. It successfully built a model with 94% accuracy to predict patients with COVID-O2 symptoms, leading to better clinical decisions [2].

Conclusions

     This is the first paper to balance privacy guarantees and data readability for financial visual data. We compare the results with different privacy for different data types in the Table 3. This comparison shows data on how to find a balance between privacy and accuracy with DP-SGD.

     There are three contributions to this research. The first was to provide a variety of demonstrations of financial vision with a differential privacy process, which can be a reference for those who need it. The second provides parameter selection criteria. The third specifies different privacy losses (ϵ) (that is, how much actual protections different ϵ can provide).