تکنیک های کلان داده برای سنجش خطر بانک داری اعتباری در وام های سهام مسکن
ترجمه شده

تکنیک های کلان داده برای سنجش خطر بانک داری اعتباری در وام های سهام مسکن

عنوان فارسی مقاله: تکنیک های کلان داده برای سنجش خطر بانک داری اعتباری در وام های سهام مسکن
عنوان انگلیسی مقاله: Big Data techniques to measure credit banking risk in home equity loans
مجله/کنفرانس: مجله پژوهش کسب و کار - Journal of Business Research
رشته های تحصیلی مرتبط: اقتصاد و مدیریت
گرایش های تحصیلی مرتبط: اقتصاد پول و بانکداری، مهندسی مالی و ریسک، بانکداری، مدیریت مالی
کلمات کلیدی فارسی: امتیازدهی اعتبار، اطلاعات بزرگ، مونت کارلو، داده کاوی
کلمات کلیدی انگلیسی: Credit scoring - Big Data - Monte Carlo - Data mining
نوع نگارش مقاله: مقاله پژوهشی (Research Article)
نمایه: scopus - master journals - JCR
شناسه دیجیتال (DOI): https://doi.org/10.1016/j.jbusres.2018.02.008
دانشگاه: گروه مطالعات اقتصادی و مالی، دانشگاه میگل هرناندز الچه، اسپانیا
ناشر: الزویر - Elsevier
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2018
ایمپکت فاکتور: 7.161 در سال 2019
شاخص H_index: 179 در سال 2020
شاخص SJR: 1.871 در سال 2019
شناسه ISSN: 0148-2963
شاخص Quartile (چارک): Q1 در سال 2019
صفحات مقاله انگلیسی: 7
صفحات ترجمه فارسی: 17 (1 صفحه رفرنس انگلیسی)
فرمت مقاله انگلیسی: pdf
فرمت ترجمه فارسی: pdf و ورد تایپ شده با قابلیت ویرایش
مشخصات ترجمه: تایپ شده با فونت B Nazanin 14
ترجمه شده از: انگلیسی به فارسی
وضعیت ترجمه: ترجمه شده و آماده دانلود
آیا این مقاله بیس است: خیر
آیا این مقاله مدل مفهومی دارد: ندارد
آیا این مقاله پرسشنامه دارد: ندارد
آیا این مقاله متغیر دارد: ندارد
آیا منابع داخل متن درج یا ترجمه شده است: خیر
آیا توضیحات زیر تصاویر و جداول ترجمه شده است: بله
آیا متون داخل تصاویر و جداول ترجمه شده است: خیر
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
رفرنس در ترجمه: در انتهای مقاله درج شده است
ترجمه فارسی فهرست مطالب

چکیده


1. مقدمه


2. مدل ها


3. آزمایشات شبیه سازی


4. نتایج


5. نتیجه گیری

فهرست انگلیسی مطالب

ABSTRACT


1. Introduction


2. The models


3. Simulation experiments


4. Results


5. Conclusions

نمونه ترجمه فارسی مقاله

چکیده


امروزه حجم دیتابیس هایی که موسسات مالی مدیریت می کنند به قدری بزرگ است که رسیدگی به این مسئله واجب شده و راهکار این مسئله را می توان در تکنیک های کلان داده ای که روی دیتاست های مالی حجیم برای بخش بندی گروه های خطر اعمال می شود یافت. در این مقاله، وجود دیتاست های بزرگ از طریق توسعه ی برخی آزمایشات مونت کارلو با استفاده از تکنیک ها و الگوریتم های شناخته شده پیگیری می شود. علاوه بر این، یک مدل ترکیبی خطی (LLM) به عنوان یک کمک جدید افزایشی برای محاسبه ی خطر اعتبار موسسات مالی پیاده می-شود. این آزمایشات رایانشی با ترکیب های متعددی از اندازه ها و شکل های دیتاست توسعه می یابند تا گستره ی وسیعی از موارد را پوشش دهیم. نتایج نشان می دهند که دیتاست های بزرگ نیازمند تکنیک ها و الگوریتم های کلان داده ای هستند که تخمین کننده های سریع تر و تک مبنایی نشان دهند. کلان داده می تواند به استخراج ارزش داده ها کمک کرده و در نتیجه تصمیمات بهتری را می توان بدون مولفه ی زمان اجرا، اتخاذ کرد. از طریق این تکنیک ها، موسسات مالی هنگام پیش بینی این که کدام مشتریان در پرداخت های خود موفق خواهند بود، با خطر کمتری مواجه خواهند بود. متعاقبا، افراد بیشتری می توانند به وام های اعتباری دسترسی داشته باشند. 


1. مقدمه


هر سیستم امتیازدهی اعتباری که امکان ارزیابی خودکار خطرات مربوط به عملیات بانک داری را فراهم کند، امتیازدهی اعتبار نامیده می شود. این خطر ممکن است به مشتریان و مشخصه های اعتباری متعددی وابسته باشد، مانند پرداخت بدهی، نوع اعتبار، سررسید، مقدار وام و سایر ویژگی های ذاتی در عملیات های مالی. یک سیستم عینی برای تایید اعتبار، نیازمند وابستگی بر نظر آنالیزورها نمی باشد. 


5. نتیجه گیری


در این آزمایش پژوهشی، قصد ایجاد فایل هایی بود که بتوانند وام ها را برای هر شعبه ی بانکی، بدون وابستگی به یک کشور یا موسسه ی خاص نمایش دهند. به همین منظور، دیتاست های تصادفی از N=2000 تا N=10,000 رکورد و از p=1 تا p=250 متغیر توضیحی را شبیه سازی کردیم. 


هشت روش ارائه شد: QDA، CART، PRUNECART، LM، LMM، LSVM، GLMLOGIT و NN. برای هر روش، مقیاس های کارآمدی و بازده محاسبه شد. موثرترین روش ها GLMLOGIT و LMM هستند. LM، LMM و GLMLOGIT بیشترین بازده رایانشی را دارند و بعد از آن ها، QDA و CART قرار دارند. برای دیتاست های بزرگ، LMM کم ترین زمان را صرف می کند و GLMLOGIT نیز برای دیتاست های کوچک کم ترین زمان را دارد.

نمونه متن انگلیسی مقاله

Abstract


Nowadays, the volume of databases that financial companies manage is so great that it has become necessary to address this problem, and the solution to this can be found in Big Data techniques applied to massive financial datasets for segmenting risk groups. In this paper, the presence of large datasets is approached through the development of some Monte Carlo experiments using known techniques and algorithms. In addition, a linear mixed model (LMM) has been implemented as a new incremental contribution to calculate the credit risk of financial companies. These computational experiments are developed with several combinations of dataset sizes and forms to cover a wide variety of cases. Results reveal that large datasets need Big Data techniques and algorithms that yield faster and unbiased estimators. Big Data can help to extract the value of data and thus better decisions can be made without the runtime component. Through these techniques, there would be less risk for financial companies when predicting which clients will be successful in their payments. Consequently, more people could have access to credit loans.


1. Introduction


Any credit rating system that enables the automatic assessment of the risk associated to a banking operation is called credit scoring. This risk may depend on several customer and credit characteristics, such as solvency, type of credit, maturity, loan amount, and other features inherent in financial operations. It is an objective system for approving credit that does not depend on the analyst's discretion.


In the 1960s, coinciding with the massive demand for credit cards, financial companies began applying credit scoring techniques as a means of assessing their exposure to risk insolvency (Altman, 1998). At the same time, the United States also began to develop and apply credit scoring techniques to assess credit risk assessment and to estimate the probability of default (Escalona Cortés, 2011).


5. Conclusions


In this research experiment, the intention was to make files that can represent loans for any bank branch, without depending on a specific country or particular institution. For this reason, we simulated random datasets from N = 2000 to N = 100,000 records and from p = 1 to p = 250 explanatory variables.


Eight methods were proposed: QDA, CART, PRUNECART, LM, LMM, LSVM, GLMLOGIT, and NN. For each method, measures of effectiveness and efficiency were calculated. The most effective methods are GLMLOGIT and LMM. LM, LMM, and GLMLOGIT are the most computationally efficient methods, followed by QDA and CART. For large datasets, LMM takes less elapsed time, and so does GLMLOGIT for short datasets.

تصویری از فایل ترجمه

          


(جهت بزرگ نمایی روی عکس کلیک نمایید)

محتوای این محصول:
- اصل مقاله انگلیسی با فرمت pdf
- ترجمه فارسی مقاله با فرمت ورد (word) با قابلیت ویرایش، بدون آرم سایت ای ترجمه
- ترجمه فارسی مقاله با فرمت pdf، بدون آرم سایت ای ترجمه
قیمت محصول: ۲۱,۸۰۰ تومان
خرید محصول
  • اشتراک گذاری در

دیدگاه خود را بنویسید:

تاکنون دیدگاهی برای این نوشته ارسال نشده است

تکنیک های کلان داده برای سنجش خطر بانک داری اعتباری در وام های سهام مسکن
مشاهده خریدهای قبلی
نوشته های مرتبط
مقالات جدید
لوگوی رسانه های برخط

logo-samandehi

پیوندها