عنوان پایاننامه
کنترل ربات با استفاده از روش رده بندی رفتاری ویادگیری تقویتی در اجرای حرکت هوشمندانه
- رشته تحصیلی
- مهندسی مکانیک طراحی کاربردی
- مقطع تحصیلی
- کارشناسی ارشد
- محل دفاع
- کتابخانه پردیس 2 فنی شماره ثبت: 1589;کتابخانه مرکزی -تالار اطلاع رسانی شماره ثبت: 41890
- تاریخ دفاع
- ۱۶ بهمن ۱۳۸۷
- دانشجو
- محمدرضا کلاهدوز
- استاد راهنما
- محمد محجوب
- چکیده
- جابجایی اجسام امروزه، بخش عمده ای از کاربرد روبات های صنعتی را به خود اختصاص داده است. در پایان نامه حاضر به مقوله جابجایی اجسام به شیوه شبه ساکن و دینامیک پرداخته شده است. در بخش اول جابجایی شبه ساکن یک جسم مستطیلی مورد مطالعه قرار گرفت که عبارت است از جابجا کردن تدریجی آن جسم توسط دو روبات متحرک به طوری که می توان از نیروهای اینرسی ایجاد شده در سیستم صرف نظر نمود. مسیر حرکت جسم برای این جابجایی یک گوشه 90 درجه در نظر گرفته شد به گونه ای که این دو روبات با سیستم کنترلی متمرکز موظف به یادگیری امر جابجایی از نقطه اولیه نامعلوم در ابتدای مسیر به نقطه هدف می باشند. الگوریتم استفاده شده برای این هدف، یادگیری تقویتی در فضای پیوسته حالات می باشد. در بخش دیگری، به مطالعه جابجایی دینامیکی جسم از طریق پرتاب آن توسط یک روبات سه درجه آزادی و دریافت آن توسط روبات مشابه، پرداخته شد. با توجه به آن که در مرحله پرتاب جسم خطاها و عدم قطعیت های موجود در سیستم منجر به نامعلوم بودن موقعیت و سرعت در لحظه دریافت جسم می گردد، تنظیم سرعت و موقعیت روبات دریافت کننده در لحظه دریافت جسم و در نتیجه کاهش نیروی تماسی بین جسم و روبات برای دریافت درست، از طریق الگوریتم یادگیری تقویتی انجام گرفت. برای ارزیابی این روش، مدلسازی سازی مناسب دینامیکی در نرم افزار ADAMS و الگوریتم کنترلی در نرم افزار MATLAB پیاده سازی شد. نتایج این شبیه سازی حاکی از بهبودی سیستم و همگرایی آن به نقطه هدف می باشد.
- Abstract
- Semi-static and dynamic object manipulation by mobile robots and 3-DoF manipulators have been studied. In semi-static manipulation a turned path with two mobile robots was considered. The goal was to transferring a rectangular object from a random initial point to the final point. Two different state spaces were studied. To control the learning algorithm, Watkins’s continuous reinforcement learning was applied and the results were compared. In another section, dynamic object manipulation by 3-DoF robot manipulators has been studied. There are three major stages in this task; first, the object is thrown, then it has a free flight, and finally it is caught by a second manipulator. We present a new method to meet the environmental uncertainties existing in the problem that can affect the trajectory of the object and subsequently increase the impact force generated between the manipulator and object at the catching instant. To reduce the impact force at this time, a reinforcement learning method is applied to the second manipulator to find the best time and velocity for receiving the flying object. To verify the proposed methodology, a set of simulations was carried out within SIMULINK-MATLAB linked to ADAMS for mechanical modeling of the system. An acceptable robustness is obtained for the second manipulator in catching the thrown object despite the noisiness of initial velocities of the object at throwing time.