عنوان پایان‌نامه

معرفی یک متر جدید برای ماتریس های معین مثبت متقارن و کاربردهایش



    دانشجو در تاریخ ۱۶ شهریور ۱۳۹۵ ، به راهنمایی ، پایان نامه با عنوان "معرفی یک متر جدید برای ماتریس های معین مثبت متقارن و کاربردهایش" را دفاع نموده است.


    رشته تحصیلی
    مهندسی برق‌-کنترل‌
    مقطع تحصیلی
    کارشناسی ارشد
    محل دفاع
    کتابخانه مرکزی پردیس 2 فنی شماره ثبت: E 2978;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 75758
    تاریخ دفاع
    ۱۶ شهریور ۱۳۹۵

    در این پایان‌نامه، در خصوص دو حالت مهم که در آنها ماتریس‌های معین مثبت ظهور می‌کنند بحث خواهیم نمود. در یکی از این موارد، دیورژانسی را میان ماتریس‌های معین مثبت معرفی می‌کنیم که بصورتی مستقیم به دیورژانس KL توزیع گوسی مرکزی زاویه‌ای مرتبط می‌باشد. در مسیر یافتن فرم این دیورژانس، علاوه بر دیورژانس KL توزیع گوسی مرکزی زاویه‌ای، عباراتی را برای آنتروپی و دیورژانس KL توزیع‌های گاما بیضوی و کانتور بیضوی بدست خواهیم آورد. خواهیم دید که این عبارات وابسطه به امید لگاریتم صورت درجه دوم مرکزی می‌باشند که فرمی بسته برای محاسبه‌ی آنها وجود ندارد. به همین دلیل، سه روش متفاوت برای محاسبه‌ی این آماره توسعه می‌دهیم: روش سری، روش انتگرالی و مجموعه‌ای از روش‌های سریع (ولی نادقیق). با انجام آزمایشات مختلف، به مقایسه‌ی آنها می‌پردازیم. سپس، در قسمت دیگر پایان‌نامه، به‌سراغ مسئله‌ی یادگیری متریک معین مثبت خواهیم رفت و روشی جدید در آن حوزه معرفی می‌کنیم. با اجرای این روش بر روی مجموعه‌دادگان مختلف، خواهیم دید که روش پیشنهادیمان، علاوه بر سادگی الگوریتمی و داشتن حلی بسته، دقت بالایی در طبقه‌بندی دارد و نیز بیش از چند‌صد برابر سریع‌تر از روش‌های پرکاربرد و موفق این حوزه عمل می‌کند. کلمات کلیدی: ماتریس معین مثبت؛ امید لگاریتم؛ صورت درجه دوم مرکزی؛ دیورژانس KL؛ توزیع گوسی مرکزی زاویه‌ای؛ توزیع گاما بیضوی؛ توزیع کانتور بیضوی؛ یادگیری متریک؛ فاصله‌ی ماهالانوبیس؛ ژئودزیک؛ میانگین هندسی
    Abstract
    In this thesis, we discuss about two important areas in which the positive definite matrices arise. In one of these cases, we introduce a divergence between the positive definite matrices, which is related to the KL-divergence between angular central Gaussian distributions. In the pathway toward finding this divergence, in addition to KL-divergence of angular central Gaussian distribution, we will achieve some expressions for the entropy and the KL-divergence of elliptical gamma and elliptical contoured distributions. We will observe that these expressions are dependent to the expected logarithm of the central quadratic form, which suffers from the lack of a closed-form expression for its computation. That is why we develop three different methods for computing that statistic: a series method, an integral method and a fast (but inexact) set of methods. Through several experimental studies, we compare the performance of these methods. Afterwards, in the other part of the thesis, we will get to the positive definite metric learning problem, and propose a novel method in this literature. By performing this method on various datasets, we will see that our proposed method, besides its algorithmic simplicity and having a closed-form solution, attains high classification accuracy and is several orders of magnitude faster than the widely used and successful methods in this area. Keywords: Positive Definite Matrix; Expected Logarithm; Central Quadratic Form; Kullback-Leibler Divergence; Angular Central Gaussian; Elliptical Gamma; Elliptical Contoured; Metric Learning; Mahalanobis Distance; Geodesic; Geometric Mean