عنوان پایاننامه
پویا نمایی مبتنی بر تصاویر ویدیویی حرکات سه بعدی صورت
- رشته تحصیلی
- مهندسی برق-مخابرات-سیستم
- مقطع تحصیلی
- کارشناسی ارشد
- محل دفاع
- کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 44236;کتابخانه مرکزی پردیس 2 فنی شماره ثبت: E 1700
- تاریخ دفاع
- ۱۶ اسفند ۱۳۸۸
- دانشجو
- علیرضا قهاری
- استاد راهنما
- رضا آقائی زاده ظروفی
- چکیده
- چکیده در حوزه ی پردازش سیگنال ویدیو، پویا نمایی سه بعدی صورت گستره ی کاربردی متنوعی شامل ویدیو کنفرانس و جراحی صورت دارد. تحقق یک پویانمایی واقعی با توجه به پیچیدگی مدل صورت و ظرفیت آن در ابراز احساس های مختلف، امری چالش برانگیز می باشد. بنابراین تحقیق در زمینه ی توسعه ی ساختارهای جدید و بهبود ساختارهای فعلی، از اهمیت ویژه ای برخوردار است. . در این تحقیق، ساختاری به منظور شناسایی اجزای حرکتی صورت و احساس آن از یک رشته فریم ویدیویی ورودی، کمی کردن آنها و استفاده از نتایج در پویا نمایی یک مدل صورت تعبیه شده، ارائه می شود. در زیر سیستم آنالیز حالت صورت، ابتدا موقعیت صورت یافته می شود. سپس با استفاده از یک الگوی سلسله مراتبی خوشه یابی در استخراج ویژگی، بردار ویژگی صورت تشکیل یافته و پردازش می گردد. در انتها شناسایی حالت صورت با استفاده از طبقه بندی کننده های آموزش داده شده، انجام می پذیرد. در زیر سیستم همانند سازی حرکات صورت، ابتدا با استفاده از جفت تصاویر متعامد یک پایگاه داده الگوریتم هایی برای استخراج نقاط ویژگی در شرایط معمول عدم تعامد کامل تصاویر و عدم روشنایی یکنواخت آنها، پیشنهاد شده است. سپس یک مدل عمومی سه بعدی بر مبنای نقاط ویژگی تطبیق می یابد و عمل نگاشت بافت با تخصیص تصویر بافت و مختصات بافت صورت می پذیرد. نهایتاً از آنجا که مدل صورت بازسازی شده منطبق بر استاندارد MPEG-? می باشد، می توان آن را به کمک پارامترهای متحرک سازی صورت (FAPs) و با تشکیل یک جدول جستجو در سنتز حالت چهره شناسایی شده، پویانمایی نمود. . بر اساس معیار سنجش عملکرد پیچیدگی های حافظه ای و زمانی، قابلیت های سیستم پیشنهادی داشتن ساختاری ماجولار، پیاده سازی کاملاً خودکار، سخت افزار در دسترس و قابل جایگذاری در سیستم چند منظوره ی مخابره ی داده ی چند رسانه ای، پیچیدگی مقبول حافظه ای، سازگاری طراحی با استاندارد MPEG-? و نرخ پایین ارسال داده ی توپولوژیک در لایه شبکه خواهند بود.
- Abstract
- In the realm of video signal processing, ?D facial animation of the human face has widespread applications, from video conferencing to facial surgery simulation. Creating facial animations with a high-degree of static and dynamic realism is a challenging task due to complexity of the face, and its capacity to confidently communicate different emotions. Therefore, research continues to progress in developing new facial animation structures and improving concurrent ones. In this work, we describe how different facial action units along with expressive expressions, may be categorized from video stream performances, parameterized, and deployed to animate an already well-prepared face model. In our performance-based system, first a facial analysis expression subsystem localizes the face region, constructs the feature vector of input video frames exploiting a hierarchical clustering-based feature extraction method, and passes the feature vector to trained pattern classifiers to distinguish different facial expressions or emotions. Then, a facial motion cloning subsystem reconstructs a ?D facial model for animation from two orthogonal photos. It is based on extracting feature points on a face utilizing heuristic algorithms to minimize possible errors introduced by prevalent non-perfect orthogonal and non-coherent luminance conditions, modifying a generic model with detected feature points, and texture-mapping the virtual face model. Finally, as the reconstructed ?D face model is MPEG-? compliant, it can be readily animated by standard MPEG-? facial animation parameters (FAPs). . With respect to space and time complexity criteria, our proposed video-based facial animation system benefits from modular structure, fully automatic pipeline, cost-efficient hardware, capable of embedding in large-scale multimedia communication systems, and low required data transmission rate in compliance with MPEG-? multimedia compression standard.