دانلود مطالب پایان نامه ها با موضوع خطایابی هوشمند توربینگازی نیروگاه |
این دو بعد را جداسازی نماید. در چنین سیستمهایی میتوان از علوم هوش مصنوعی برای رسیدن به این اهداف بهره جست. در این روشها اساس کار تعریف و ساماندهی دادههای پایگاه است[۱۰]. که ازجمله آنها میتوان به نرمالایزکردن و تبدیل آنها به بردار اشاره کرد. و یا شبکه را تحت آموزشقرارداد یعنی از روشهای مختلفی مجموعههای در دسترس را بصورت تصادفی برای آموزش و مجموعه دیگری را برای تست انتخاب نمود .ضمن اینکه در شرایط نویزی شبکه خود را مورد ارزیابی قرار میدهد. تا با دیتایی که تا بحال دیده نشده هم عکس العمل مناسبی داشته باشد. از آنجایی که در بیشتر صنایع دادهها بصورت رشتههای ادامهدار ومتغیر با زمان به مرکز کنترل ارسال میشوند. استراتژیی شناسایی خطا انجام پردازشهایی بر روی این رشتهها یا بعبارت دیگر روندهاست (سریهای زمانی). که با انتخاب شبکه مناسب و آموزش آن سعی در تفکیک دو کمیت مطرح شدهی امن و ناامن خواهد بود. که در ادامه به آن خواهیم پرداخت .
۱-۳-۱ روش سه گوشهسازی یا مثلثبندی
در سیستمهای هوشمند، برتری اصلی در حل مساله تشخیص و شناسایی، میتوان به سهولت در تعمیم، برهان شفاف و گویای آن اشاره نمود. یکی از این روشها که اخیرا در بیشتر موارد تحقیقاتی مورد توجه قرار گرفته است روشCheung میباشد. که در غالب یک چهارچوب اصلی و پایهای بعنوان اساس کار برروی روندهایی از فرایند[۱۱] در سال ۱۹۹۲ایجاد و ارائه گردید. که به روش مثلثبندی ضمنی[۱۲] فرموله شده، برای بررسی روندها مطرح گردید. و اساس کار این روش مبتنی بر اصول هندسی مدل شده میباشد.
Triangulation یا سه گوشهسازی روشی است؛ که در آن بخشهایی از روند توسط شیب ابتدا و انتهای منحنی با یک خطی بر روی قطعهای از روند[۱۳]، مابین دو نقطه متصل میگردد، تعریف میشود. الگوهایی در شکل(۱-۳) منطبق بر این روش نشان داده شده است.
شکل(۱-۳): روش سه گوشهسازی یا مثلثبندی
یکی از مزایای استفاده از این تکنیک کاربردهای فراگیر آن در هر نوع سیگنالی است. به نحوی که میتوان آنرا بر روی هر سیگنالی پیادهسازی نمود. و الگوریتم سه گوشهسازی را در اجزا مختلف سیگنال اجرا و طبقه بندی نمود؛ بعبارتی میتوان در هر نوع از سیگنال با بهره گرفتن از اشکال هدسی بدست آمده؛ به هر واقعهای از فرایند تعمیم داد (شکل (۱-۴)).
شکل(۱-۴): الگوهای تعمیم یافته برای هر نوع روند از روش سه گوشهسازی
این روش مشابه با روشهای دیگر کار بر روی روندها بوده و نقطه اشتراکها با سایر روشها دقیقا در جایی متمایز میشود که علامت مشتقات اول و دوم به عنوان عوامل تعیین کننده برای جداسازی و طبقهبندی قطعات کاربرد عینی داشته باشند (شکل(۱-۲)).
در روشهای مشابه دیگر که هدف این مقاله حول این موضوع قرار دارد؛ بصورت اجزاء پایهای و اصلی از روند و به عنوان الگوهای اولیه محسوب شده و به شکلهای زیر نشان داده میشوند.
A(0,0), B(+,+), C(+,0), D(+,-), E(-,+), F(-,0), G(-,-)
۱-۳-۲ روش موجک[۱۴]
تئوری موجک[۱۵]، که بر مبنای سیستم تطبیقی غیرخطی بود در سال ۱۹۹۷برای شناسایی روندها از اطلاعات استخراج شده از سنسورها با نام W-ASTRA ارائه گردید. و بعدها به B-Splines پایهگذاری و برای کاربردهای روندها پیشنهاد گردید. در این تکنیک از مفهوم آنالیز multiresolution در ورودی شبکه عصبی استفاده شد. و پیش از هر کاری اطلاعات سنسورها بر روی توابع سنجشی[۱۶] در سطوح مختلف طرحریزی میشدند؛ صورت پذیرفت. و ضرایب از سطوح بالاتر برای شناسایی الگوهای اولیه استفاده میگردید. و زمانیکه یک الگو یکتا و منحصربفرد شناسایی میشد. آنرا در مجموعه از نمونهها، جمع آوری میکرد. و در غیر اینصورت ضرایب از سطوح پایین مورد استفاده قرار میگرفت. و در نهایت W-ASTRA رویداد یا داده سنسور را با اثر خطایی[۱۷]، که قطعهای از خود روند بود و از قبل بهمین روش در پایگاه دادهای ذخیره شده بود مقایسه میشد. و بدین ترتیب الگوریتم شناسایی خطا انجام میپذیرفت.
۱-۳-۳ روش جداسازی دو بعدی
در روش جداسازی یک بعدی برای آشکارسازی خطا، با تعیین مرزهایی از هدف، زمانی که داده، توزیع غیر محدبی داشت. صراحتا در جداسازی دادهی نامعلوم و ناشناخته، با اطمینان خاطر صورت نمیپذیرفت. ولی با فرض استفاده از روش جداسازی به شیوه دوبعدی میتوان برای تعیین محدوده نرمال و خطا، دو فضای متفاوتی تعریف کرد. که براحتی قابل تفکیک باشند مطابق شکل(۱-۵) به نحوه ساخت مرزهای تصمیمگیری بین دو بعد از دیتاها، دیتای نرمال و دیتای فالتی با این فرض که دیتای فالتی در دسترس و قابل اندازهگیری باشد. انجام پذیرفت.
شکل(۱-۵): مرزهای تصمیمگیری بین دو بعد
تابع جداکننده دو بعدی را که خروجی آن با +۱ و -۱ علامت گذاری شده را در نطر بگیرید:
(۱-۱)
اگر جداکننده از هر روش شناخته شدهای نتواند روش جداسازی را انجام بدهد. آزمونی را برای پیبردن به قانونی که از مجموعه نمونههای آموزشی محدود، بدست میآورد؛ بکار میبرد. البته در این مورد ریسکهای ذاتی نیز وجود دارند. مثل زمانی که نمونههای آموزشی ممکن است خیلی نهادینه و مشخص نباشند. واریانس ذاتی، نویز در اندازهگیری میتواند قانون جداسازی بدست آمده را خیلی بزرگ نماید. همچنین نمونههای آموزشی کوچکتر، بیشترین قطعیت را برای مساله بوجود میآورند [۱۳].
زمانی که یک نمونه آموزشی خوب در دسترس قرار میگیرد. تعداد توابعی که برای تخمین دقیق و fit آن انجام میشود؛ خیلی زیاد است. بهمین دلیل در اکثر موارد نوع تابع f و تعدادی از پارامترهای w قبلا انتخاب میشوند.
برای فهم مطلب مجموعه دادههای آموزشی را بفرم زیر تعریف میکنیم:
X := {x , x ,…, xm}⊆با m=Nو Y:={,}
این دادههای بهم attach شده را در نظر بگیرید. تابع f باید بردار x را برای تخمین y= اجرا نماید. پارامترهای بهینه w برای تابع f روی مجموعه دادههای آموزشی بصورت زیر تعریف میشوند:
(۱-۲) w= argmin( f,w, X )
( f,w, X ) این عبارت امید خطای آزمون برای تابع در محاسبه به تابع چگالی احتمال برای همه xها و yها است .
رابطه تخمین خطای صحیح:P(x,y)dxdy در بیشتر مسالههای جداسازی عبارت P(x,y) نامعلوم است که فرض براین است نمونههای آموزشی توزیع مستقل و غیروابستهای از هم دارند. بنابراین فرمول تابع خطا برروی تابع f بفرم زیر تعریف میشود.
(۱-۳)
که عدد ثابت برای انتخاب خاصی از w روی مجموعه خاص آموزشی است. کمیت بین صفر و یک متغیر میباشد. بهترین جداسازیها زمانی رخ خواهد داد. که در بین داده
های دیده نشده و جدید، بتوان جداسازی را بخوبی انجام داد. البته با این شرط که آموزش از حد معینی فراتر نرود.
در شکل (۱-۶) که یک مثال مفهومی است. در این شکل آموزش بیش از حد[۱۸] به الگوریتم رخ داده است. اگر چه خوشهها بدرستی جداسازی شدهاند. ولی در عوض هزینه و زمان زیادی
شکل(۱-۶): یک نمونه از آموزش بیش از حد به الگوریتم
برای آموزش و اجرای الگوریتم لازم بوده است. که این مساله با تعمیم شبکه و الگوریتم دچار مشکل خواهد شد. در الگوریتم تفکیک سازی سیگنالهای غیرنرمال از نرمال هدف اصلی یافتن جداکنندهای است که ضمن داشتن تعمیم خوب بتواند موارد دیده نشده و ناشناخته را هم به خوبی جدا نماید[۱۳].
۱-۳-۴ روش ماشین بردار پشتیبان[۱۹]
ماشین بردار پشتیبانها (SVM) از الگوریتم آموزشی نظارتی استفاده میکنند. که برای اولین بار توسط vapink در سال ۱۹۶۳ برای تشخیص الگو استفاده گردید. مجموعه بردارهای آموزشی معین (مثالهای ورودی مثبت و منفی) به ازای هر با برچسب که علامتگذاری شده را شامل میشد. ماشین بردار پشتیبان با تشکیل یک مرز تصمیمگیری خطی بین دو بعد، آنها را ازهم متمایز میکند. اخیرا از ماشین بردار پشتیبانها در بیشتر مقالات و تحقیقات برای توسعه تکنیکها و تئوریهای مرتبط با رگرسیون و تخمین چگالی استفاده میشود. در دستهبندی و جداسازی دودویی (تفکیک) از مجموعه بردارهایی که بصورت زیر نشاندار میشوند؛ از قالب زیر استفاده میشود:
:={,
در اینجا کاری که باید انجام داد. آموزش یک ماشین بردار پشتیبان جداکننده برای یادگیری ارتباط بین داده و نشانههای مربوطه میباشد.
اساسا خود ماشین بردار پشتیبان یک جداکننده غیرخطی است. که با تکنیکهای خطی که منتج به تابع نگاشت غیرخطی میشود؛ تعریف میگردد. تفسیر هندسی ماشین بردار پشتیبان الگوریتم جستجو برای دو سطح (یا سطوح جداکننده) بصورت بهینه است و این سطوح یا ابر صفحهها[۲۰] بیشترین فاصله از دو بعد را دارند. در ادامه قابلیت تفکیکپذیری خطی ماشین بردار پشتیبان و قابلیت جداسازی غیرخطی مطرح میشود [۱۳].
-
- قابلیت تفکیک پذیری:
درماشین بردار پشتیبان ،ابر صفحههای خطی یاد میگیرند چگونه بین دو بعد را تمییز دهند (شکل(۱-۷)).
شکل(۱-۷): قابلیت تفکیک پذیری در SVM
فاصله ابر صفحه با نزدیکترین نمونه مثبت (یا منفی) را حد یا حاشیه[۲۱] ابر صفحه مینامند. ماکزیمم حاشیه ابر صفحه برابر بافاصله بین مرزهای بعدهاست.
یک ابر صفحه خطی بصورت f (x) = [w, x] + b تعریف میشود.b بایاس وw بردار نرمال وزن برای ابر صفحه است. بدست آوردن f (x) = (x + b) با بیشترین حاشیه (حد) که عبارت استاز :
f() = [w, x ]+ b ≥ ۱ , for =1
f() = [w, x ]+ b ≤ −۱, for = −۱
معادله فوق را میتوان بصورت نامعادله زیر نشان داد:
(۱-۴) (.w+ b) -1≥ ۰,
در ماشین بردار پشتیبان وظیفه اصلی آموزش دو پارامتر w و b در f (x) = (x + b) و به دنبال آن حل بهینه معادله است. یعنی یافتن w و b کمینه داریم:
(۱-۵)
(.w+ b) -1≥ ۰,i
برای این منطور تابع لاگراژین را بصورت زیر تعریف مینماییم:
L(w,b,α)=w-[+b)-1] ≥ ۰,
شرط لازم در نقطه زینی عبارت استاز:
فرم در حال بارگذاری ...
[پنجشنبه 1400-08-13] [ 08:07:00 ب.ظ ]
|