منابع پایان نامه در مورد کاربرد شبکه های عصبی ... |
مغز به عنوان یک سیستم پردازش با ساختار موازی دارای۱۰۱۱ واحد پایه به نام نرون است و هر نرون تقریباً به ۱۰۴ نرون دیگر اتصال دارد. نرون عنصر اصلی مغز است و به تنهایی مانند یک واحد پردازش منطقهای عمل می کند. نحوه عملیات نرون بسیار پیچیده است و هنوز در سطح میکروسکوپی چندان شناخته شده نیست، هر چند قوانین پایه آن نسبتاً روشن است. هر نرون ورودیهای متعددی را پذیراست که با یکدیگر به طریقی جمع میشوند. اگر در یک لحظه تعداد ورودیهای فعال نرون به حد کفایت برسد نرون نیز فعال شده و آتش می کند، در غیر این صورت نرون به صورت غیر فعال و آرام باقی میماند. نمایشی از ویژگیهای عمده نرون در شکل (۱-۱۸) آمده است.
شکل(۱-۱۸): مشخصات اصلی یک نرون بیولوژیک[۲۶].
اکثر نرونها از سه قسمت اساسی تشکیل شده اند:
بدنهی سلول(که شامل هسته و قسمت های حفاظتی دیگر میباشد و سوما نامیده میشوند)
دندریت
اکسون
که دو قسمت آخر عناصر ارتباطی نرون را تشکیل میدهد. نرونها براساس ساختارهایی که بین آنها پیامها هدایت میشوند به سه دسته تقسیم میگردند:
نرونهای حسی که اطلاعات را از ارگانهای حسی به مغز و نخاع میفرستند.
نرونهای محرک که سیگنالهای فرمان را از مغز و نخاع به ماهیچهها و غدد هدایت می کنند.
نرونهای ارتباطی که نرونها را به هم متصل می کنند.
۱-۸-۲- مدل ریاضی یک نرون
نرون کوچکترین واحد یک شبکه عصبی مصنوعی است. بدنه هر سلول عصبی از دو بخش تشکیل میشود، بخش اول را تابع ترکیب میگویند، وظیفه تابع ترکیب ایناست که تمام ورودیها را ترکیب و یک عدد تولید کند. در بخش دوم سلول تابع انتقال قرار دارد که به آن تابع تحریک نیز میگویند [۲۶]. در شکل(۱-۱۴)، ساختار یک نرون مصنوعی نشان دادهشده است. رایجترین انواع توابع تحریک بر پایه مدلهای بیولوژیک استوار گردیده است. درواقع همانگونه که یک سلول بیولوژیک باید به سطح آستانه تحریک خاصی برسد تا یک سیگنال تولید کند، توابع تحریک نیز تا زمانی که ورودیهای ترکیب شده و وزندار شده به یک حد آستانهای خاص نرسند مقدار خروجی بسیار کوچکی تولید میکنند.
شکل(۱-۱۹): ساختار یک نرون مصنوعی [۶]
وقتی ورودیهای ترکیب شده به حد آستانهای خاصی برسند، سلول عصبی تحریک شده و سیگنال خروجی را تولید میکند.
ارتباط داخلی بین نرونهای موجود در یک شبکه عصبی مصنوعی بسیار ساده میباشد. اکثر شبکههای عصبی دارای یک لایهی ورودی، حداقل یک لایهی مخفی[۴۱] و یک لایهی خروجی[۴۲] میباشند.
لایهی ورودی: اطلاعات را از یک منبع خارجی دریافت کرده و در داخل شبکه پخش می کند.
لایهی مخفی، اطلاعات را از لایهی قبلی دریافت میکند. پردازش اطلاعات در این لایه انجام میشود.
لایهی خروجی، اطلاعات پردازششده را دریافت و نتایج را به یک دریافتکنندهی خارجی انتقال میدهد.
پردازش اطلاعات درون نرونهای شبکه عصبی به صورت عددی انجام میشود. اندازهی سیگنالی که به هر نرون وارد میشود به دو عامل بستگی دارد:
- اندازه سیگنال ورودی از نرون قبلی.
- وزن یا طول ارتباطی که بین دو نرون وجود دارد.
۱-۸-۳- یادگیری شبکه
الف)یادگیری با ناظر
در یادگیری با ناظر، قانون یادگیری اینگونه میباشد که به ازای مجموعه ای از بردار ورودی به شبکه و خروجی مطلوب شبکه برای ورودی ها وجود دارد. پس از اعمال ورودی به شبکه عصبی در خروجی شبکه، مقدار خروجی با مقدار خرجی مطلوب مقایسه شده و سپس خطای یادگیری محاسبه و از آن جهت تنظیم پارامترهای شبکه استفاده می شود، به گونه ای که اگر دفعهی بعد به شبکه همان ورودی اعمال شود خروجی شبکه به مقدار مطلوب خروجی نزدیکتر گردد.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
ب)یادگیری بدون ناظر
در یادگیری بدون ناظر یا یادگیری خودسازمانده، پارامترهای شبکه عصبی تنها توسط پاسخ سیستم اصلاح می شود. به عبارتی تنها اطلاعات دریافتی از محیط به شبکه را بردارهای ورودی تشکیل می دهند و بردار جواب مطلوب به شبکه اعمال نمی شود و طبقه بندی موجود در الگوهای ورودی و شاخص های موجود در ورودی ها و ارتباط میان آنهاتنها توسط شبکه تنظیم می شود.
ج)یادگیری تشدیدی
این الگوریتم یک حالت ویژه از یادگیری نظارت شده است که به جای استفاده از خروجی مطلوب، یک معیار را فقط برای تعیین میزان خوب بودن خروجی شبکه عصبی متناظر با یک ورودی به کار میگیرد. یک مثال از این نوع الگوریتم یادگیری، الگوریتم ژنتیک است. در این نوع یادگیری به جای فراهم نمودن جواب واقعی، به شبکه عددی که نشانگر میزان عملکرد شبکه است ارائه می شود.
۱-۸-۴- تقسیم بندی بر اساس ساختار
الف) شبکه های پیش خور[۴۳]
در این شبکه ها سیگنالها از لایه ورودی به لایه خروجی توسط اتصالهای یک جهته جریان پیدا می کنند. نرونهای یک لایه به نرونهای لایه بعد متصل هستند اما با نرونهای لایه خود ارتباطی ندارند. شبکه های پیش خور یک ارتباط ثابت و ایستا بین فضای ورودی و خروجی برقرار می کنند به این معنا که خروجی در یک لحظه فقط تابعی از ورودی در همان لحظه است. شبکه های MLP، LVQ، GMDH مثالهایی از شبکه های پیش خور می باشند[۳۰].
ب) شبکه های بازگشتی[۴۴]
در یک شبکه بازگشتی خروجی بعضی نرونها به همان نرون یا نرونهای لایه قبل بازگردانده می شود. در نتیجه سیگنال می تواند در دو جهت رفت و برگشت جریان داشته باشد. شبکه های بازگشتی یک حافظه پویا دارند، به این معنا که خروجی آنها در یک لحظه بازتابی از ورودی در همان لحظه و ورودیها و خروجی های پیشین میباشد. شبکه های Hopfield، Elman و Jordan جزء شبکه های بازگشتی می باشند[۲۴].
۱-۸-۵- شبکه پرسپترون
شبکه عصبی پرسپترون، به ویژه پرسپترون چند لایه، در زمرهی کاربردی ترین شبکه های عصبی میباشند. این شبکه ها قادرند با انتخاب مناسب تعداد لایه ها و سلولهای عصبی،که اغلب زیاد هم نیستند، یک نگاشت غیر خطی را با دقت دلخواه انجام دهند. قانون یادگیری این شبکه از نوع یادگیری با ناظر است. در شبکه عصبی پرسپترون چند لایه عموماً دو نوع سیگنال استفاده می شود که بهتر است از هم تمیز داده شوند یک نوع سیگنال در مسیر رفت حرکت می کنند(از سمت چپ به راست ) و دستهی دیگر سیگنالهایی هستند که در مسیر برگشت حرکت می کنند(از سمت راست به چپ). به دستهی اول سیگنالهای تابعی[۴۵] و به دستهی دوم سیگنالهای خطا[۴۶] گویند. شکل (۱-۲۰) یک MLP با سه لایه را نشان میدهد. نرونها در لایه ورودی فقط به عنوان فضاهایی برای توزیع سیگنالهای ورودی به نرونهای لایه مخفی عمل می کنند. هر نرون l در لایه مخفی مجموع سیگنالهای ورودی را که در وزن مربوطه ضرب شده است حساب کرده و خروجی را که تابعی از این مجموع است تولید می کند. خروجی نرونهای لایه خروجی هم به همین صورت محاسبه میشوند.
(۱-۴۸)
Input Layer
Hidden Layer
Output Layer
Bias
Bias
Environment
Environment
External Input
External Output
فرم در حال بارگذاری ...
[دوشنبه 1400-09-29] [ 08:57:00 ق.ظ ]
|