چکیده
امروزه گرفتن عکس ها، مشاهده آنها و به اشتراک گذاری آن ها کار ساده ای است، اما فاقد اطلاعاتی عمیق و مهم هستند، چون تصاویر معمولاً نماهای صحنه سه بعدی را به نمایش می گذارند. این باعث ایجاد محدودیت های شدیدی برای دستکاری، ویرایش و بازیابی عکس ها می شود. تخمین عمقی تکنیکی است که هدف آن بازیابی اطلاعات عمقی یا بر مبنای نکات عمقی نظیر بافت، فوکوس و سایه زنی یا استفاده از مجموعه مدل های سه بعدی است. با علاقه ای که افراد اخیراً در تحلیل تصویر سه بعدی نشان داده اند، تخمین اطلاعات عمقی به یک موضوع به سرعت در حال تحول در تحقیقات بینایی کامپیوتری تبدیل شده است. علاوه بر این، این تخمین کاربردهایی در کابردهای تصویربرداری مختلف نظیر ویرایش تصویر با عمق پیشرفته، نسل نمای بدیع و غیره استفاده می شود. از این رو، انگیزه ما برای در نظر گرفتن مسأله افزودن عمق به تصویری از یک شیء و ارائه مبنایی برای بازسازی سه بعدی، قوی است. در این مقاله ما روش اتوماتیکی برای یافتن اطلاعات عمقی یک تصویر منفرد، با به کار گیری مجموعه ای از مدل های همان کلاس شیئی ارائه می نماییم. مزیت اصلی این روش در آن است که حتی اگر مجموعه داده ای حاوی مدل دقیق سه بعدی اشیای مجسم شده نباشد، مؤلفه های شکل را توصیف خواهد کرد و نگاشت عمقی آن را ایجاد می کند. ما روش خود را روی اشیای داخلی مختلفی نظیر لامپ، صندلی، فنجان و ماشین اعمال کرده ایم و به نگاشت های عمقی دست یافته ایم.
1- مقدمه
تصاویر محبو ترین واسط ها برای تجسم اطلاعات بوده اند. تصاویر حاوی جزئیات بصری غنی از یک ساختار بوده و بدست آوردن آن ها، مشاهده آن ها، انتشار و به اشتراک گذاری شان کار ساده ای است و اما آن ها فاقد اطلاعات عمقی بحرانی هستند چون نمای افکنش شده ای از یک صحنه سه بعدی هستند و ممکن است سد راه برخی از بخش های مهم اشیا شوند و نمی توانند حاوی داده های عمقی باشند. این مسأله باعث تحمیل محدودیت های شدیدی در کاربردهایی نظیر تشخیص تصویر، دستکاری و ویرایش تصویر با عمق زیاد می شود. اگر بتوانیم اطلاعات از دست رفته را در حین اکتساب تصاویر بازیابی نماییم، به امر مهمی دست یافته ایم. بنابراین انگیزه ای قوی برای یافتن اطلاعات عمقی یک شیء داریم. وقتی تنها یک تصویر به عنوان ورودی داشته باشیم، تخمین عمق بسیار مشکل می شود.
Abstract
Today images are easy to acquire, view, publish, and share however they lack critical depth information as the images usually are projected views of a 3-D scene. This makes severe restrictions for many image manipulation, editing, and retrieval tasks. Depth estimation is a technique that aims to retrieve depth information either based on depth cues such as texture, focus and shading or using collection of 3D models. With the recent considerable interest in 3D image analysis, estimating depth information has become a rapidly evolving topic in computer vision research. Also it finds applications in various imaging applications including depth-enhanced image editing, novel view generation etc. Hence, we have strong motivation to consider the problem of adding depth to an image of an object and provide a basis for 3D reconstruction. In this paper, we present an automatic method to find depth information of single image by employing collection of models of the same object class. The key advantage of this method is that even if the dataset does not contain the exact 3D model of the imaged object, it will characterize shape components and generate its depth map. We apply our method on various indoor objects like lamp, chair, cup and car and obtain plausible depth maps.
I. INTRODUCTION
Images have been the most popular medium to visualize the information. Images contain rich visual detail of a structure and are easy to obtain, view, publish and share. However, they lack critical depth information as they are the projected view of a 3D scene and might occlude important parts of objects and cannot contain depth data. This makes severe restrictions to applications like image recognition, manipulation and depth-enhanced image editing [1]. It would be an advantage if we can recover the lost information while acquiring images. Therefore, we have a strong motivation to find depth information of an object. Estimating depth becomes extremely difficult when we have only one image as input.
چکیده
1- مقدمه
2- بررسی مقالات
3- روش پیشنهادی
4- نتایج آزمایشی
5- مقایسه نتایج
6- بحث
7- نتیجه گیری
Abstract
I. INTRODUCTION
II. LITERATURE REVIEW
III. PROPOSED METHOD
IV. EXPERIMENTAL RESULTS
V. DISCUSSION
VI. CONCLUSION