عنوان پایاننامه
طراحی یک روش تفسیرپذیر قاعده محور برای طبقه بندی جریان داده ها
- رشته تحصیلی
- مهندسی فناوری اطلاعات(IT)
- مقطع تحصیلی
- کارشناسی ارشد
- محل دفاع
- کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 76627;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 76627;کتابخانه پردیس قم شماره ثبت: 002499;کتابخانه پردیس قم شماره ثبت: 002499
- تاریخ دفاع
- ۱۸ مهر ۱۳۹۵
- دانشجو
- علی سجاد بلال
- استاد راهنما
- حسین آقابابا
- چکیده
- طبقهبندی جریان دادهها موضوعی است که سالهاست مورد توجه محققان بوده و طی دههی اخیر موضوع بسیاری از تحقیقات بوده است. در طبقهبندی جریان دادهها، هدف مورد نظر پیشبینی طبقهی یک نمونهی فاقد طبقه است. این تحقیقات با یافتههای خوبی همراه بودهاند اما یک خلأ همیشگی در آنها وجود داشته و آن توجه به ویژگی تفسیرپذیری است. منظور از تفسیرپذیری عمق درک مدل ساخته شده توسط یک فرد خبره، سهولت دستیابی به این درک و پایداری آن است. تفسیرپذیر بودن یک مدل باعث میشود تا فرد خبره به نحوهی پیشبینی طبقهی یک نمونهی جدید پی برده و روابط ارزشمندی را از آن استنباط کند. ما در این تحقیق سعی کردیم تا روشی تفسیرپذیر در طبقهبندی جریان دادهها طراحی کنیم و در عین حال کارایی را در حد قابل قبولی نگه داریم. پیادهسازی الگوریتم پیشنهادی، تولید جریان داده و مقایسه با روشهای موجود با استفاده از نرمافزار MOA انجام شد. در روش طراحی شده پارامترهایی نظیر میزان تفسیرپذیری طبقهبندهای پایه، تعداد طبقهبندهای اضافه شده، تعداد تغییرات ایجاد شده در این طبقهبندها طی اجرای الگوریتم و تعداد تغییر ساختار در مدل نسبت به الگوریتمهای شناخته شدهی فعلی در بیشتر اوقات وضعیت مطلوبتری داشت. الگوریتم پیشنهادی همچنین از نظر مقدار دقت طبقهبندی، ثبات این دقت و زمان اجرا قابل رقابت با الگوریتمهای شناخته شدهی فعلی است.
- Abstract
- Data stream classification has gathered a lot of attention in recent years and has been the subject of many researches in previous decade. The goal in data stream classification is to predict the class of an unknown instance. This researches were successful to some extend but there was always a gap in them, paying attention to the interpretability of the model. By interpretability we means the depth of perception of the model that an expert can reach, how easy it is to reach this perception and the stability of it. An interpretable model let the expert to see what is going inside so he/she can learn valuable patterns about the data. In this research we decided to design an interpretable model while keeping the performance at an acceptable level. Implementing the proposed algorithm, generating the data stream and comparing the proposed algorithm with current state of the art algorithms all done using MOA framework. The proposed algorithm ranked high among others in interpretability by taking into account properties like the depth of perception of base learners, number of added base learners, number of changes in this base learners and number of changes of the system structure during the runtime. The proposed algorithm not only kept the performance at an acceptable level by scoring high in accuracy in small runtime, in some tests it does even better than most other algorithms. Keywords: data stream classification, concept drift, interpretability