پایان نامه ها و مقالات

پایان نامه با کلید واژه های ، {p_1,p_2,…,p_n، P=، (۴-۵)

دانلود پایان نامه

مقدارهای متغییر X به صورت زیر هستند.
X= {x_1,x_2,…,x_n } (N> 0) (4-5)
و احتمال هریک برابر است با :
P= {p_1,p_2,…,p_n } 0 <= p_1<= 1, i=1, 2 …n (5-5)
که باید داشته باشیم:
(۶-۵) ∑_(i=1)^n▒〖p_i=1〗
بنابر این اطلاعات آنتروپی از این سیستم به وسیله فرمول زیر بدست میآید:
H = – ∑_(i=1)^n▒p_i lnp_i (7-5)
یکی از این آنتروپیهای مهم، آنتروپی طیف است.آنتروپی طیف، برآوردی از میزان پیچیدگی سری زمانی را ارائه میکند. تبدیلات مختلفی برای به‌دست آوردن طیف سیگنال وجود دارد. یکی از روشها تبدیل فوریه است که در آن چگالی طیف سیگنال به‌دست میآید.‌ ‌این تبدیل توزیع چگالی طیف را به صورت تابعی از فرکانس سیگنال بیان میکند. ما در این پایاننامه از تبدیل والش برای بدست آوردن یک نوع ویژگی جدید به نام آنتروپی توالی استفاده میکنیم. این آنتروپی برآوردی از میزان تغییرات سیگنال است.
۵-۴-۲- استخراج ویژگی با استفاده از تبدل والش
در این پایاننامه از تبدیل والش برای بدست آوردن یک نوع ویژگی جدید به نام آنتروپی توالی استفاده میکنیم. این آنتروپی بر آوردی از میزان تغییرات سیگنال است. برای بدست آوردن آنتروپی توالی ما روش زیر را بکار میبریم.
( ۱تبدیل والش سیگنال را بدست میآوریم با این کار 〖 w〗_i میزان توالی در نقطه i بدست میآید.
(۲میزان چگالی توالی را بدست میآوریم
P ̂ (w_i) = 1/N |X(〖 w〗_i)|^2 (8-5)
3) چگالی توالی را نرمال میکنیم
P_i = (P ̂ (〖 w〗_i))/(∑_i^n▒〖P ̂ (〖 w〗_i)〗) (۹-۵)
۴) با استفاده از فرمول (۷-۵) آنتروپی توالی را بدست میآوریم .
۵-۴-۳- استخراج ویژگی با استفاده تبدیل فوریه و موجک
آنتروپی طیف، برآوردی از میزان پیچیدگی سری زمانی را ارائه میکند. تبدیلات مختلفی برای به‌دست آوردن طیف سیگنال وجود دارد. یکی از روشها تبدیل فوریه است که در آن چگالی طیف سیگنال به‌دست میآید.‌ ‌این تبدیل توزیع چگالی طیف را به صورت تابعی از فرکانس سیگنال بیان میکند.
( ۱تبدیل فوریه(موجک) سیگنال را بدست میآوریم با این کار 〖 w〗_i میزان طیف در نقطه i بدست میآید.
(۲ میزان چگالی طیف را بدست میآوریم.
P ̂ (w_i) = 1/N |X(〖 w〗_i)|^2 (10-5)
3) چگالی طیف را نرمال میکنیم
P_i = (P ̂ (〖 w〗_i))/(∑_i^n▒〖P ̂ (〖 w〗_i)〗) (۱۱-۵)
۴) با استفاده از فرمول (۷-۵) آنتروپی طیف را بدست میآوریم .
بعد از استخراج ویژگی، با ویژگی های استخراج شده عمل دسته بندی با استفاده از ماشین بردار پشتیبان و روش نزدیکترین همسایه انجام می شود.
۵-۵- ماشین بردار پشتیبان (Support Vector Machin)
ماشین بردار پشتیبان یکی از جدیدترین روشها جهت طبقهبندی دادهها میباشد که نسبت به روشهای قدیمیتر مانند شبکه عصبی کارایی بهتری دارد. این تکنیک یک روش یادگیری supervised است و جزو شاخه Kernel Methods دریادگیری ماشین محسوب میشود. از SVM هم جهت شناسایی الگو و هم جهت دستهبندی آنها استفاده میشود.
SVM با فرض اینکه دستهها بهصورت خطی جداپذیر باشند، ابرصفحه هائی با حداکثر حاشیه (maximum margin) را بدست میآورد تا دستهها را جدا کند. سپس با درنظر گرفتن این ابرصفحهها، دادهها را به دو کلاس مجزا تقسیم میکند که جواب کلاس اول در معادله صفحه مثبت و دیگری در معادله صفحه منفی است. البته این روش تا زمانی پاسخگو است که دادهها به صورت خطی تفکیکپذیر باشند اما در مسایلی که دادهها بصورت خطی جداپذیر نباشند دادهها را باید به فضایی با ابعاد بیشتر نگاشت دهیم یا در همین فضا آنها را توسط تابعی (کرنل) جایگزین نمائیم؛ تا بتوان آنها را بصورت خطی جدا نمود[۵۴].
SVM دارای معایب و مزایایی میباشد از جمله در آموزش خود مشکل بهینههای محلی را ندارد و برخلاف شبکههای عصبی در ماکزیممهای محلی گیر نمیافتد. و Classifier را با حداکثر تعمیم بنا میکند . ساختار و توپولوژی خود را به صورت بهینه تعیین میکند .توابع تمایز غیر خطی را به راحتی و با محاسبات کم، با استفاده از مفهوم حاصلضرب داخلی تشکیل میدهد. آموزش آن نسبتاً ساده است. برای دادههای با ابعاد بالا تقریباً خوب جواب میدهد. به یک تابع کرنل خوب و انتخاب پارامتر C نیاز دارد.
۵-۵-۱- ابر صفحه جداساز
ابرصفه یک مفهوم در هندسه و تعمیمی از یک صفحه در تعداد متفاوتی از ابعاد است. در SVM اگر دادهها دارای n بُعد باشند، صفحه جداساز دارای n-1 بُعد است. اما جهت جداسازی دادهها چندین صفحه جداساز وجود دارد زیرا مفهوم آموزشی که اشیاء بتوانند به عنوان نقاط در یک فضای با ابعاد بالا دستهبندی شوند و پیدا کردن خطی که آنها را جدا کند منحصر به فرد نیست. (شکل ۵-۷) حال سوال این است که کدام صفحه مناسبتر است؟ منظور ما از “مناسبتر بودن” داشتن حداکثر فاصله با دادههای دو کلاس
و حداقل خطا میباشد. آنچه که SVM را از سایر classifier ها متمایز کرده است، بکارگیری همین شیوه در انتخاب صفحه جداساز است. به همین دلیل SVM به راحتی میتواند برای طبقهبندی دادهها در دو کلاس یا بیشتر استفاده شود.
همانطور که در بالا ذکر شد، درSVM ماکزیمم کردن حاشیه بین دو کلاس مدنظر است. بنابراین ابرصفحه ای را انتخاب میکند که فاصله آن از نزدیکترین دادهها در هر دو طرف جداکننده خطی، ماکزیمم باشد. اگر چنین ابرصفحه ای وجود داشته باشد، به عنوان ابرصفحه ماکزیمم حاشیه شناخته میشود.
حال با توجه به توضیحات بیان شده، مفهوم support vector به راحتی قابل درک میباشد. support vector به بردارهایی اطلاق میشود که دارای حداکثر فاصله با صفحه جداساز هستند و این حداکثر فاصله را با m (margin) نمایش میدهند که در شکل (۵-۷) نشان داده شده است.
هدف SVM ایجاد یک معیار مناسب جهت دستهبندی است به طوریکه برای نمونههای ندیده به خوبی قابل

شکل ۵- ۷ – صفحه های جداساز و بردارهای پشتیبان
استفاده باشد و در عین حال از قابلیت تعمیم خوبی برخوردار باشد.
در صورت استفاده مناسب از SVM این الگوریتم قدرت تعمیم خوبی خواهد داشت. علی رغم ابعاد زیاد از سرریز شدن پرهیز میکند. همچنین به جای استفاده از کل دادهها، فقط از بردارهای پشتیبان استفاده میکند. یک جداکننده اغلب به صورت یک تابع نشان داده میشود. وقتی که دو کلاس داریم، اگر باشد، داده به کلاس مثبت نسبت داده می شود و درغیر این صورت به کلاس منفی تعلق دارد. در شکل (۵-۸) این نواحی با اعداد ۱+ و ۱- نشان داده شده است.
تابع خطی، تابعی است که از ترکیب خطی ورودی x به صورت زیر تعریف میشود:
(۱۲-۵)
این تابع (تابع تصمیمگیری برای جداکردن دادهها) با یک زیرمجموعهای از مثالهای آموزشی که بردارهای پشتیبان نزدیکترین دادههای آموزشی به ابرصفحه جداکننده، نامیده میشوند، تعیین میشود. در واقع ابرصفحه بهینه در SVM جداکنندهای بین بردارهای پشتبیبان است.
جهت جداسازی مجموعه ای از نقاط که (y نشانه و label مربوط به کلاس دادهها

شکل ۵- ۸ – صفحه جداساز و نواحی مربوط به هر کلاس

میباشد.)، توسط یک جداکننده خطی، باید بتوان خطی را پیدا کرد به نحوی که برای تمام i ها رابطه برقرار باشد. فرض کنید تعدادی داده آموزشی داریم، یک مجموعه از نقاط به فرم:
(۱۳-۵)
می تواند ۱ یا ۱- باشد، که مشخص میکند داده متعلق به چه کلاسی است. هر یک بردار p بعدی است. میخواهیم جداکننده ماکزیمم حاشیهای پیدا کنیم که نقاطی که آنها برابر ۱ است از نقاطی که آنها ۱- است جدا کند. هر ابرصفحه میتواند به صورت یک مجموعه از نقاط x که رابطه را ارضاء میکنند نوشته شود. بردار w یک بردار نرمال است. این بردار بر ابرصفحه عمود است. پارامتر آفست ابرصفحه از مبدا در امتداد بردار نرمال w می باشد.
حال می خواهیم w و b را طوری انتخاب کنیم که حاشیه یا فاصله بین ابرصفحههای موازی ماکزیمم شود به نحوی که ابرصفحههای موازی تا آنجا که میتوانند از هم دور باشند و همچنان دادهها را بتوان جدا کرد. این ابرصفحههای موازی میتوانند با معادلههای زیر توصیف شوند[۵۵]:
(۱۴-۵)
توجه کنید اگر دادههای آموزشی را بتوان به صورت خطی جدا کرد، میتوانیم دو صفحه جداکننده را طوری انتخاب کنیم که هیچ داده ای بین آنها نباشد و سپس سعی کنیم فاصله آنها را ماکزیمم کنیم. با استفاده از هندسه، فاصله بین این دو ابرصفحه (پهنای حاشیه) را پیدا میکنیم که برابر است. بنابراین میخواهیم را مینیمم کنیم.
۵-۵-۲- جداسازی غیر خطی
مجموعه دادههایی که به طور خطی قابل جداسازی هستند با مقداری نویز خوب کار میکنند. مجموعه دادههای پیچید تر را نمیتوان به سادگی با یک خط دستهبندی کرد. در این موارد از نگاشت به فضایی با ابعاد بالاتر استفاده میشود در شکل (۵-۹) جداسازی غیر خطی نشان داده شده است..
ایده اصلی نگاشت به فضای بالاتر( فضای ویژگی) انتقال x به فضای بالاتر برای راحتی جداسازی است. فضای نگاشت اصلی همواره میتواند به فضای ویژگی با ابعاد بالاتر دیگری که مجموعه آموزشی قابل جداسازی باشد، نگاشت یابد. برای این انتقال از تابع کرنل استفاده میکنیم.
تابع کرنل، یک جداکننده خطی متکی بر ضرب داخلی بردارهاست که به صورت میباشد. اگر نقاط با استفاده از انتقال به فضای ویژگی انتقال یابند، ضرب داخلی آنها به صورت تبدیل خواهد شد[۵۶].

شکل ۵-۹- افزایش بعد جهت جداسازی خطی دادهها

برای نگاشت کرنل های متفاوتی داریم . چهار نمونه از کرنلهای رایج مورد استفاده عبارت اند از :
کرنل Polynomial با درجه d :
کرنل RBF : (پهنا را در اینجا شامل میانه و وایانس توزیع گوسین است)
کرنل Homogeneous polynomial :
کرنل Heavy Tailed RBF(‘htrbf’) که براساس شبکه عصبی RBF ساخته شده است.

این فایل ها تست های آزمون آزمایشی کارشناسی ارشد انتشارات سنجش و دانش می باشد که با پاسخ های کاملا” تشریحی ارائه می شود. شما می توانید از منوی جستجو (بالای سایت سمت چپ ) تست های دروس دیگر را پیدا کرده و رایگان دانلود کنید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

* Copy This Password *

* Type Or Paste Password Here *