عنوان پایان نامه

طراحی یک روش تفسیرپذیر قاعده محور برای طبقه بندی جریان داده ها


    مقطع تحصیلی
    کارشناسی ارشد
    محل دفاع
    کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 76627;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 76627;کتابخانه پردیس قم شماره ثبت: 002499;کتابخانه پردیس قم شماره ثبت: 002499
    تاریخ دفاع
    ۱۸ مهر ۱۳۹۵
    استاد راهنما
    حسین آقابابا

    طبقه‌بندی جریان داده‌ها موضوعی است که سال‌هاست مورد توجه محققان بوده و طی دهه‌ی اخیر موضوع بسیاری از تحقیقات بوده است. در طبقه‌بندی جریان داده‌ها، هدف مورد نظر پیش‌بینی طبقه‌ی یک نمونه‌ی فاقد طبقه است. این تحقیقات با یافته‌های خوبی همراه بوده‌اند اما یک خلأ همیشگی در آن‌ها وجود داشته و آن توجه به ویژگی تفسیرپذیری است. منظور از تفسیرپذیری عمق درک مدل ساخته شده توسط یک فرد خبره، سهولت دست‌یابی به این درک و پایداری آن است. تفسیرپذیر بودن یک مدل باعث می‌شود تا فرد خبره به نحوه‌ی پیش‌بینی طبقه‌ی یک نمونه‌ی جدید پی برده و روابط ارزشمندی را از آن استنباط کند. ما در این تحقیق سعی کردیم تا روشی تفسیرپذیر در طبقه‌بندی جریان داده‌ها طراحی کنیم و در عین حال کارایی را در حد قابل قبولی نگه داریم. پیاده‌سازی الگوریتم پیشنهادی، تولید جریان داده و مقایسه با روش‌های موجود با استفاده از نرم‌افزار MOA انجام شد. در روش طراحی شده پارامترهایی نظیر میزان تفسیرپذیری طبقه‌بندهای پایه، تعداد طبقه‌بندهای اضافه شده، تعداد تغییرات ایجاد شده در این طبقه‌بندها طی اجرای الگوریتم و تعداد تغییر ساختار در مدل نسبت به الگوریتم‌های شناخته شده‌ی فعلی در بیشتر اوقات وضعیت مطلوب‌تری داشت. الگوریتم پیشنهادی هم‌چنین از نظر مقدار دقت طبقه‌بندی، ثبات این دقت و زمان اجرا قابل رقابت با الگوریتم‌های شناخته شده‌ی فعلی است.
    Abstract
    Data stream classification has gathered a lot of attention in recent years and has been the subject of many researches in previous decade. The goal in data stream classification is to predict the class of an unknown instance. This researches were successful to some extend but there was always a gap in them, paying attention to the interpretability of the model. By interpretability we means the depth of perception of the model that an expert can reach, how easy it is to reach this perception and the stability of it. An interpretable model let the expert to see what is going inside so he/she can learn valuable patterns about the data. In this research we decided to design an interpretable model while keeping the performance at an acceptable level. Implementing the proposed algorithm, generating the data stream and comparing the proposed algorithm with current state of the art algorithms all done using MOA framework. The proposed algorithm ranked high among others in interpretability by taking into account properties like the depth of perception of base learners, number of added base learners, number of changes in this base learners and number of changes of the system structure during the runtime. The proposed algorithm not only kept the performance at an acceptable level by scoring high in accuracy in small runtime, in some tests it does even better than most other algorithms. Keywords: data stream classification, concept drift, interpretability