عنوان پایان‌نامه

یک واحد محاسبات تقریبی با قابلیت استفاده مجدد از محاسبات برای سیستم های چند پردازنده ای روی تراشه



    دانشجو در تاریخ ۱۰ شهریور ۱۳۹۴ ، به راهنمایی ، پایان نامه با عنوان "یک واحد محاسبات تقریبی با قابلیت استفاده مجدد از محاسبات برای سیستم های چند پردازنده ای روی تراشه" را دفاع نموده است.


    محل دفاع
    کتابخانه مرکزی پردیس 2 فنی شماره ثبت: E 2855;کتابخانه مرکزی پردیس 2 فنی شماره ثبت: E 2855;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 72051;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 72051
    تاریخ دفاع
    ۱۰ شهریور ۱۳۹۴
    دانشجو
    علی یعسوبی
    استاد راهنما
    مهدی مدرسی

    استفاده از شبکه های عصبی در زمینه های مختلف تحقیقاتی و فنّاوری که موازی‌سازی و کارایی اهمیت دارد به‌طور گسترده ای در سال های اخیر روبه گسترش است. بخصوص، برنامه هایی که نسبت به خطا تحمل پذیراند، ازجمله پردازش سیگنال و برنامه های چندرسانه‌ای، برای ویژگی تقریبی شبکه های عصبی بسیار مناسب هستند. در بسیاری از شتاب دهنده های شبکه عصبی با بهره گیری از تقریب، میان دقت خروجی و انرژی مصرفی مصالحه ای برقرار می کنند. در این پژوهش مقدار قابل توجه ای عملیات ریاضی تکراری در شبکه های عصبی مشاهده کردیم که می توان جهت ذخیره انرژی این تعداد عملیات را کاهش دهیم. با توجه به این مشاهده، ما شتاب‌دهنده شبکه عصبی با نام CORN را پیشنهاد دادیم که با استفاده مجدد از محاسبات گذشته به نورون ها اجازه می دهد تا نتایج محاسباتشان را با یکدیگر به اشتراک بگذارند. در این روش به طور مؤثر محاسبات افزونه را حذف می کنیم و نشان می دهیم که با استفاده از CORN به طور میانگین %26 انرژی بیشتری در مقایسه با طراحی های کم توان اخیر شتاب‌دهنده‌های شبکه های عصبی ذخیره می کنیم. همچنین شبکه های عصبی که در حوزه تصویر استفاده می شوند میان فریم ها یا داده های متوالی آن افزونگی داده زیادی وجود دارد که جهت ذخیره انرژی می توان از ورود داده های تکراری جلوگیری کرد. در ادامه این پژوهش معماری سفارشی موازی برای اتصال های داخل شبکه عصبی با نام CuPAN را معرفی می کنیم. CuPAN از تعدادی هسته پردازشی CORN تشکیل‌شده است. در این روش از ارتباط های میان شبکه ای کم هزینه Clos جهت مدیریت مؤثرتر ارتباط های میان نورونی استفاده شده است. تشابه میان الگو ترافیک شبکه های عصبی و ویژگی های شبکه های میان ارتباطی چند سطحی را بررسی کردیم و متوجه شدیم شبکه Clos، جهت استفاده برای ارتباط های داخلی شبکه عصبی بسیار مناسب است، نتایج ارزیابی ها نشان می دهد که CuPAN می تواند ترافیک پایه در شبکه¬های عصبی را بهتر از توپولوژی توری پایه که در بسیاری از پیاده‌سازی‌های شبکه عصبی مورد استفاده قرار می گیرد مدیریت کند و میانگین تأخیر کمتری را تولید می کند. واژه‌های کلیدی: شبکه های عصبی، محاسبات تقریبی، استفاده مجدد از محاسبات، شبکه Clos.
    Abstract
    Applications of neural networks in various fields of research and technology have expanded widely in recent years. In particular, applications with inherent tolerance to accuracy loss, such as signal processing and multimedia applications, are highly suited to the approximation property of neural networks. This approximation property has been exploited in many existing neural network accelerators to trade-off accuracy for power-efficiency and speed. In addition to the power saving obtained by approximation, we observed that a considerable amount of arithmetic operations in neural networks are repetitive and can be eliminated to further decrease power consumption. Given this observation, we propose CORN, COmputation Reuse-aware Neural network accelerator that allows neurons to share their computation results, effectively eliminating the power usage of redundant computations. We will show that CORN lowers power consumption by 25% on average over the state-of-the-art low-power neural network accelerator. Also, we present a Custom Parallel Architecture for Neural networks (CuPAN). CuPAN consists of streamlined nodes that each node is able to integrate a single or a group of neurons. It relies on a high-throughput and low-cost Clos on-chip interconnection network in order to efficiently handle inter-neuron communication. We show that the similarity between the traffic pattern of neural networks (multicast-based multi-stage traffic) and topological characteristics of multi-stage interconnection networks (MINs) makes neural networks naturally suited to the MINs. The Clos network, as one of the most important classes of MINs, provide scalable low-cost interconnection fabric composed of several stages of switches to connect two groups of nodes and interestingly, can support multicast in an efficient manner. Our evaluation results show that CuPAN can manage the multicast-based traffic of neural networks better than the mesh-based topologies used in many parallel neural network implementations and gives lower average message latency, which directly translates to faster neural processing. Keywords: Neural network, Computation reuse, Hardware accelerator, Power-efficiency, Multicast, Clos Network, Network-on-Chip.