عنوان پایاننامه
معرفی یک متر جدید برای ماتریس های معین مثبت متقارن و کاربردهایش
- رشته تحصیلی
- مهندسی برق-کنترل
- مقطع تحصیلی
- کارشناسی ارشد
- محل دفاع
- کتابخانه مرکزی پردیس 2 فنی شماره ثبت: E 2978;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 75758
- تاریخ دفاع
- ۱۶ شهریور ۱۳۹۵
- دانشجو
- پوریا حبیب زاده
- استاد راهنما
- رشاد حسینی, آرتا امیر جمشیدی
- چکیده
- در این پایاننامه، در خصوص دو حالت مهم که در آنها ماتریسهای معین مثبت ظهور میکنند بحث خواهیم نمود. در یکی از این موارد، دیورژانسی را میان ماتریسهای معین مثبت معرفی میکنیم که بصورتی مستقیم به دیورژانس KL توزیع گوسی مرکزی زاویهای مرتبط میباشد. در مسیر یافتن فرم این دیورژانس، علاوه بر دیورژانس KL توزیع گوسی مرکزی زاویهای، عباراتی را برای آنتروپی و دیورژانس KL توزیعهای گاما بیضوی و کانتور بیضوی بدست خواهیم آورد. خواهیم دید که این عبارات وابسطه به امید لگاریتم صورت درجه دوم مرکزی میباشند که فرمی بسته برای محاسبهی آنها وجود ندارد. به همین دلیل، سه روش متفاوت برای محاسبهی این آماره توسعه میدهیم: روش سری، روش انتگرالی و مجموعهای از روشهای سریع (ولی نادقیق). با انجام آزمایشات مختلف، به مقایسهی آنها میپردازیم. سپس، در قسمت دیگر پایاننامه، بهسراغ مسئلهی یادگیری متریک معین مثبت خواهیم رفت و روشی جدید در آن حوزه معرفی میکنیم. با اجرای این روش بر روی مجموعهدادگان مختلف، خواهیم دید که روش پیشنهادیمان، علاوه بر سادگی الگوریتمی و داشتن حلی بسته، دقت بالایی در طبقهبندی دارد و نیز بیش از چندصد برابر سریعتر از روشهای پرکاربرد و موفق این حوزه عمل میکند. کلمات کلیدی: ماتریس معین مثبت؛ امید لگاریتم؛ صورت درجه دوم مرکزی؛ دیورژانس KL؛ توزیع گوسی مرکزی زاویهای؛ توزیع گاما بیضوی؛ توزیع کانتور بیضوی؛ یادگیری متریک؛ فاصلهی ماهالانوبیس؛ ژئودزیک؛ میانگین هندسی
- Abstract
- In this thesis, we discuss about two important areas in which the positive definite matrices arise. In one of these cases, we introduce a divergence between the positive definite matrices, which is related to the KL-divergence between angular central Gaussian distributions. In the pathway toward finding this divergence, in addition to KL-divergence of angular central Gaussian distribution, we will achieve some expressions for the entropy and the KL-divergence of elliptical gamma and elliptical contoured distributions. We will observe that these expressions are dependent to the expected logarithm of the central quadratic form, which suffers from the lack of a closed-form expression for its computation. That is why we develop three different methods for computing that statistic: a series method, an integral method and a fast (but inexact) set of methods. Through several experimental studies, we compare the performance of these methods. Afterwards, in the other part of the thesis, we will get to the positive definite metric learning problem, and propose a novel method in this literature. By performing this method on various datasets, we will see that our proposed method, besides its algorithmic simplicity and having a closed-form solution, attains high classification accuracy and is several orders of magnitude faster than the widely used and successful methods in this area. Keywords: Positive Definite Matrix; Expected Logarithm; Central Quadratic Form; Kullback-Leibler Divergence; Angular Central Gaussian; Elliptical Gamma; Elliptical Contoured; Metric Learning; Mahalanobis Distance; Geodesic; Geometric Mean