چکیده
بهتر است که در شرایط خاصی از رویکرد بهینه سازی به منظور حل مسائل مشخصه تعمیم یافته استفاده کنیم، Ax = λBx ، در جاییکه A و B ماتریسهای متقارن واقعی هستند و B ماتریس معین ثابت است. بخصوص در زمانیکه ماتریسهای A و B خیلی بزرگ باشند و هزینه محاسباتی، بازدارنده، راه حل، با درستی بالای سیستمهای معادلات موجود در این ماتریسها زیاد باشد. معمولا رویکرد بهینه سازی شامل بهینه کردن خارج قسمت ریلی می باشد.
ما در ابتدا تابع های هدف تناوبی را برای حل مسائل مشخصه( تعمیم یافته)، از طریق بهینه سازی (بدون محدودیت) پیشنهاد می دهیم و ویژگیهای تغییر پذیر این تابعها را توضیح می دهیم.
ما سپس بعضی از الگوریتمهای بهینه سازی را (بر اساس یکی از این فرمولها) که برای محاسبه جفت مشخصه بزرگتر طراحی شده اند ، معرفی می کنیم. بر اساس آزمایشات عددی مقدماتی ، این کار می تواند منجر به ایجاد روشهای عملی برای محاسبه جفت مشخصه بزرگتر (جفت) ماتریس متقارن (بسیار) بزرگ شود.
1. مقدمه
در شرایط خاصی بهتر است که از رویکرد بهینه سازی به منظور حل مسائل مشخصه تعمیم یافته استفاده کنیم، Ax = λBx ، در جاییکه A و B ماتریسهای متقارن واقعی هستند و B ماتریس معین ثابت است. بخصوص در زمانیکه ماتریسهای A و B خیلی بزرگ باشند و هزینه محاسباتی، بازدارنده، راه حل، با درستی بالای سیستمهای معادلات موجود در این ماتریسها زیاد باشد. ما فرض خواهیم کرد که مسئله ، محاسبه یک مشخصه ویژه (کوچکترین یا بزرگترین) و یک بردار مشخصه مربوطه می باشد. خواننده برای انگیزه عملی چنین فرضیه هایی و دلیل اینکه چرا این مسائل از استفاده مستقیم تکنیکهای استاندارد مانند روشهای نیرو و Lanczos جلوگیری می کند، به [12] و [16] ارجاع داده می شود ، که مستلزم حل شدن با درستی بالاو سیستمی که شامل ماتریس
B در هر تکرار باشد ، می باشد. با این وجود، رویکرد بهینه سازی ، که معمولا شامل بهینه سازی خارج قسمت ریلی می باشد، ( به عنوان مثال با روش محتویات پیوسته)از آنجایی که آن تنها شامل ضربهای بردار-ماتریس می باشد، تحت شرایطی که در بالا گفته شد بکار می رود.
Abstract
In certain circumstances, it is advantageous to use an optimization approach in order to solve the generalized eigenproblem, Ax = λBx, where A and B are real symmetric matrices and B is positive definite. In particular, this is the case when the matrices A and B are very large and the computational cost, prohibitive, of solving, with high accuracy, systems of equations involving these matrices. Usually, the optimization approach involves optimizing the Rayleigh quotient.
We first propose alternative objective functions to solve the (generalized) eigenproblem via (unconstrained) optimization, and we describe the variational properties of these functions.
We then introduce some optimization algorithms (based on one of these formulations) designed to compute the largest eigenpair. According to preliminary numerical experiments, this work could lead the way to practical methods for computing the largest eigenpair of a (very) large symmetric matrix (pair).
1. Introduction
In certain circumstances, it is advantageous to use an optimization approach in order to solve the generalized eigenproblem, Ax = λBx, where A and B are real symmetric matrices and B is positive definite. In particular, this is the case when the matrices A and B are very large and the computational cost, prohibitive, of solving, with high accuracy, systems of equations involving these matrices. We shall assume that the problem is to compute one extreme eigenvalue (the largest or smallest) and an associated eigenvector. The reader is referred to [12] and [16] for the practical motivation of such assumptions and the reasons why problems of this type may prevent the direct use of standard techniques such as power and Lanczos methods (see [8]) which require solving, with high accuracy, a system involving the matrix B at each iteration. However, the optimization approach, which usually involves optimizing the Rayleigh quotient (for instance, with the conjugate gradient method) does apply under the above assumptions, since it only involves matrix-vector multiplications.
چکیده
1.مقدمه
2. قواعد متغیر برای مقدار ویژه بزرگتر از ماتریس متقارن واقعی
3. الگوریتمهای بهینه سازی برای محاسبه جفت مشخصه بزرگتر از ماتریس متقارن واقعی
3.2. روش نیوتن برای محاسبه یک جفت مشخصه
3.3. روش شبه نیوتن برای محاسبه بزرگترین جفت مشخصه
3.4. یک الگوریتم نیوتن کوتاه برای محاسبه بزرگترین جفت مشخصه
3.5. روند جستجوی خطی
3.6. روند جستجوی چند بعدی
3.7. استراتژیهای حافظه-محدود
3.8. آزمایشات عددی
4. نتیجه گیری
Abstract
1. Introduction
2. Variational principles for the largest eigenvalue of a real symmetric matrix
3. Optimization algorithms for computing the largest eigenpair of a real symmetric matrix
3.1. Steepest descent for computing the largest eigenpair
3.2. Newton’s method for computing an eigenpair
3.3. A quasi-Newton method for computing the largest eigenpair
3.4. A truncated Newton algorithm for computing the largest eigenpair
3.5. The line-search procedure
3.6. A multi-dimensional search procedure
3.7. Limited-memory strategies
3.8. Numerical experiments
4. Conclusion