محاسبه بردار مشخصه ماتریسهای متقارن واقعی از طریق بهینه سازی
ترجمه شده

محاسبه بردار مشخصه ماتریسهای متقارن واقعی از طریق بهینه سازی

عنوان فارسی مقاله: محاسبه بردار مشخصه ماتریسهای متقارن واقعی از طریق بهینه سازی
عنوان انگلیسی مقاله: Computing Eigenelements of Real Symmetric Matrices via Optimization
مجله/کنفرانس: بهینه سازی محاسباتی و کاربردهای آن - Computational Optimization and Applications
رشته های تحصیلی مرتبط: ریاضی
گرایش های تحصیلی مرتبط: ریاضی کاربردی، محاسبات نرم، تحقیق در عملیات (بهینه سازی)
کلمات کلیدی فارسی: مسئله مشخصه تعمیم یافته، قواعد تغییر پذیر، الگوریتمهای نوع – نیوتن، روش، الگوریتم های حافظه محدود
کلمات کلیدی انگلیسی: generalized eigenproblem - variational principles - Newton-type algorithms - Lanczos method - limitedmemory algorithms
شناسه دیجیتال (DOI): https://doi.org/10.1023/B:COAP.0000044182.33308.82
دانشگاه: فرانسه
صفحات مقاله انگلیسی: 26
صفحات مقاله فارسی: 35
ناشر: اسپرینگر - Springer
نوع ارائه مقاله: ژورنال
نوع مقاله: ISI
سال انتشار مقاله: 2004
ایمپکت فاکتور: 2.041 در سال 2019
شاخص H_index: 66 در سال 2020
شاخص SJR: 0.997 در سال 2019
ترجمه شده از: انگلیسی به فارسی
شناسه ISSN: 0926-6003
شاخص Quartile (چارک): Q1 در سال 2019
فرمت مقاله انگلیسی: PDF
وضعیت ترجمه: ترجمه شده و آماده دانلود
فرمت ترجمه فارسی: pdf و ورد تایپ شده با قابلیت ویرایش
مشخصات ترجمه: تایپ شده با فونت B Nazanin 14
مقاله بیس: خیر
مدل مفهومی: ندارد
کد محصول: 10305
رفرنس: دارای رفرنس در داخل متن و انتهای مقاله
پرسشنامه: ندارد
متغیر: ندارد
درج شدن منابع داخل متن در ترجمه: بله
ترجمه شدن توضیحات زیر تصاویر و جداول: بله
ترجمه شدن متون داخل تصاویر و جداول: بله
رفرنس در ترجمه: در داخل متن و انتهای مقاله درج شده است
نمونه ترجمه فارسی مقاله

چکیده

 بهتر است که در شرایط خاصی از رویکرد بهینه سازی به منظور حل مسائل مشخصه تعمیم یافته استفاده کنیم، Ax = λBx ، در جاییکه A و B ماتریسهای متقارن واقعی هستند و B ماتریس معین ثابت است. بخصوص در زمانیکه ماتریسهای A و B خیلی بزرگ باشند و هزینه محاسباتی، بازدارنده، راه حل، با درستی بالای سیستمهای معادلات موجود در این ماتریسها زیاد باشد. معمولا رویکرد بهینه سازی شامل بهینه کردن خارج قسمت ریلی می باشد.

ما در ابتدا تابع های هدف تناوبی را برای حل مسائل مشخصه( تعمیم یافته)، از طریق بهینه سازی (بدون محدودیت) پیشنهاد می دهیم و ویژگیهای تغییر پذیر این تابعها را توضیح می دهیم.

ما سپس بعضی از الگوریتمهای بهینه سازی را (بر اساس یکی از این فرمولها) که برای محاسبه جفت مشخصه بزرگتر طراحی شده اند ، معرفی می کنیم. بر اساس آزمایشات عددی مقدماتی ، این کار می تواند منجر به ایجاد روشهای عملی برای محاسبه جفت مشخصه بزرگتر (جفت) ماتریس متقارن (بسیار) بزرگ شود.

1. مقدمه

در شرایط خاصی بهتر است که از رویکرد بهینه سازی به منظور حل مسائل مشخصه تعمیم یافته استفاده کنیم، Ax = λBx ، در جاییکه A و B ماتریسهای متقارن واقعی هستند و B ماتریس معین ثابت است. بخصوص در زمانیکه ماتریسهای A و B خیلی بزرگ باشند و هزینه محاسباتی، بازدارنده، راه حل، با درستی بالای سیستمهای معادلات موجود در این ماتریسها زیاد باشد. ما فرض خواهیم کرد که مسئله ، محاسبه یک مشخصه ویژه (کوچکترین یا بزرگترین) و یک بردار مشخصه  مربوطه می باشد. خواننده برای انگیزه عملی چنین فرضیه هایی و دلیل اینکه چرا این مسائل از استفاده مستقیم تکنیکهای استاندارد مانند روشهای نیرو و  Lanczos جلوگیری می کند، به [12] و [16] ارجاع داده می شود ، که مستلزم حل شدن با درستی بالاو سیستمی که شامل ماتریس

B در هر تکرار باشد ، می باشد. با این وجود، رویکرد بهینه سازی ، که معمولا شامل بهینه سازی خارج قسمت ریلی می باشد، ( به عنوان مثال با روش محتویات پیوسته)از آنجایی که آن تنها شامل ضربهای بردار-ماتریس می باشد، تحت شرایطی که در بالا گفته شد بکار می رود.

نمونه متن انگلیسی مقاله

Abstract 

In certain circumstances, it is advantageous to use an optimization approach in order to solve the generalized eigenproblem, Ax = λBx, where A and B are real symmetric matrices and B is positive definite. In particular, this is the case when the matrices A and B are very large and the computational cost, prohibitive, of solving, with high accuracy, systems of equations involving these matrices. Usually, the optimization approach involves optimizing the Rayleigh quotient.

We first propose alternative objective functions to solve the (generalized) eigenproblem via (unconstrained) optimization, and we describe the variational properties of these functions.

We then introduce some optimization algorithms (based on one of these formulations) designed to compute the largest eigenpair. According to preliminary numerical experiments, this work could lead the way to practical methods for computing the largest eigenpair of a (very) large symmetric matrix (pair).

1. Introduction

In certain circumstances, it is advantageous to use an optimization approach in order to solve the generalized eigenproblem, Ax = λBx, where A and B are real symmetric matrices and B is positive definite. In particular, this is the case when the matrices A and B are very large and the computational cost, prohibitive, of solving, with high accuracy, systems of equations involving these matrices. We shall assume that the problem is to compute one extreme eigenvalue (the largest or smallest) and an associated eigenvector. The reader is referred to [12] and [16] for the practical motivation of such assumptions and the reasons why problems of this type may prevent the direct use of standard techniques such as power and Lanczos methods (see [8]) which require solving, with high accuracy, a system involving the matrix B at each iteration. However, the optimization approach, which usually involves optimizing the Rayleigh quotient (for instance, with the conjugate gradient method) does apply under the above assumptions, since it only involves matrix-vector multiplications.

ترجمه فارسی فهرست مطالب

چکیده

1.مقدمه

2. قواعد متغیر برای مقدار ویژه بزرگتر از ماتریس متقارن واقعی

3. الگوریتمهای بهینه سازی برای محاسبه جفت مشخصه بزرگتر از ماتریس متقارن واقعی

3.2. روش نیوتن برای محاسبه یک جفت مشخصه

3.3. روش شبه نیوتن برای محاسبه بزرگترین جفت مشخصه

3.4. یک الگوریتم نیوتن کوتاه برای محاسبه بزرگترین جفت مشخصه

3.5. روند جستجوی خطی

3.6. روند جستجوی چند بعدی

3.7. استراتژیهای حافظه-محدود

3.8. آزمایشات عددی

4. نتیجه گیری

فهرست انگلیسی مطالب

Abstract

1. Introduction

2. Variational principles for the largest eigenvalue of a real symmetric matrix

3. Optimization algorithms for computing the largest eigenpair of a real symmetric matrix

3.1. Steepest descent for computing the largest eigenpair

3.2. Newton’s method for computing an eigenpair

3.3. A quasi-Newton method for computing the largest eigenpair

3.4. A truncated Newton algorithm for computing the largest eigenpair

3.5. The line-search procedure

3.6. A multi-dimensional search procedure

3.7. Limited-memory strategies

3.8. Numerical experiments

4. Conclusion

محتوای این محصول:
- اصل مقاله انگلیسی با فرمت pdf
- ترجمه فارسی مقاله با فرمت ورد (word) با قابلیت ویرایش، بدون آرم سایت ای ترجمه
- ترجمه فارسی مقاله با فرمت pdf، بدون آرم سایت ای ترجمه
قیمت محصول: ۳۶,۶۰۰ تومان
خرید محصول