
آقای جلیل قویدل نیچران دانشجوی کارشناسی ارشد جناب آقایان دکتر مرتضی آنالویی و دکتر پیمان کبیری روز شنبه 29/11/90 ساعت 17در اتاق دفاعیه واقع در طبقه سوم دانشکده کامپیوتر از پروژه کارشناسی ارشد خود تحت عنوان بهبود دقت رده بندها با استفاده از ایجاد تنوع در میان رده بندهای پایهدفاع خواهند نمود. چکیده پایان نامه: هدف از این پایاننامه ارائه روشی برای ایجاد مجمع ردهبندها با استفاده از ایجاد تنوع در میان ردهبندهای پایه است. در همین راستا دو روش ارائه شده است. در روش اول که ردهبندهای پایه آن را درختهای تصمیم تشکیل میدهند، تنوع با استفاده از اعمال تغییر در مجموعه آموزشی حاصل میشود. در این روش به مقادیر تعدادی از خصیصهها در هر یک از الگوها مقداری تصادفی اضافه شده و این مقادیر باعث ایجاد تنوع در میان ردهبندهای پایه میشوند. در نهایت پس از ساخت ردهبندها خروجی آنها با استفاده از رای اکثریت ترکیب میشود. این روش با سه روش معروف ایجاد مجمع به نامهای بگینگ، بوستینگ و جنگل چرخش روی تعدادی از مجموعه دادههای مقایسه شده است. آزمون رتبههای علامتدار ویلکاکسون روی این مجموعه دادهها نشان میدهد که روش ارائه شده از هر سه روش بگینگ، بوستیگ و جنگل چرخش بهتر عمل کرده است. در روش دوم که از ردهبندهای ماشین بردار پشتیبان چند هستهای به عنوان ردهبند پایه استفاده میکند تنوع از طریق استفاده از تعدادی از خصیصهها برای آموزش هر ردهبند و نیز انتخاب متفاوت هسته و پارامترهای هستهها در مجمع تزریق میشود. در این روش هم برای ترکیب خروجی ردهبندها از روش رای اکثریت استفاده شده است. این روش نیز با بگینگ، بوستیگ و جنگل چرخش روی مجموعه دادههای مقایسه شده است. برای این روش نیز از آزمون رتبههای علامتدار ویلکاکسون استفاده شده است که نشان میدهد این روش از هر سه روش ذکر شده دیگر روی این مجموعه دادهها عملکرد بهتری داشته است. واژههای کلیدی: ردهبندی، مجمع ردهبندها، تنوع در مجمع ردهبندها، ماشین بردار پشتیبان چند هستهای Abstract: Thisthesisaims is to improve classification accuracy in classifier ensemble creation methods via creating diverse base classifiers. Two distinguished methods has been proposed; To create the training data for base classifier, first method randomly selects some of the features in the training set and for each pattern a pseudo random value is added to the selected feature values. Majority vote is used to combine decisions of base classifiers. Proposed method has been compared with bagging, boosting and rotation forest on some standard UCI data set. Wilcoxon singed-rank test shows that our method performs better than bagging, boosting and rotation forest. In the second method, SVM with multiple kernel learning is used as the base classifier. In this method every classifier’s training data has some of features in train set and kernel function parameters are pseudo random values. Majority vote has been used to combine base classifier’s decisions. Like first method Wilcoxon singed-rank test shows that on some UCI data sets this method outperforms bagging, boosting and rotation forest. Keywords: classification, classifier ensemble, diversity in ensemble methods, SVM with multiple kernel learning ارائهدهنده: جلیل قویدل نیچران اساتید راهنما: دکتر مرتضی آنالویی - دکتر پیمان کبیری استاد ممتحن داخلی : دکتر بهروز مینایی استاد ممتحن خارجی :دکتر محمد رحمتی زمان : شنبه 29 بهمن ماه ساعت 17 مکان: دانشکده مهندسی کامپیوتر- طبقه سوم- اتاق دفاعیه از اساتید بزرگوار، دانشجویان گرامی و دیگر متخصصان و علاقه مندان به موضوع دفاعیه دعوت می شود با حضور خود موجبات غنای علمی و ارتقای کیفی را فراهم سازند. دانشکده مهندسی کامپیوتر مدیریت تحصیلات تکمیلی
|