مقاله با موضوع شبکه پرسپترون چند لایه و پرسپترون چند لایه

هنگام طراحی یک شبکه باید پارامترهای ساختار شبکه، نوع الگوریتم آموزش، نرخ یادگیری، تعداد لایه های شبکه و تعداد نرون ها در هر لایه، و تعداد تکرارها برای هر الگو در خلال آموزش را مد نظر داشت. آموزش را می توان هم از لحاظ نوع آموزش و هم از لحاظ قانون یادگیری طبقه بندی کرد. نوع آموزش در شبکه پرسپترون چند لایه،‌آموزش با نظارت می باشد. اما قانون یادگیری در آن یادگیری پس از انتشار یا دلتای تعمیم یافته می باشد.
قانون دلتا را می توان به صورت زیر بیان کرد .
(3-3)
(3-4)
(3-5)
= مقدار خروجی مطلوب
=مقدار خروجی به دست آمده
= نرخ یادگیری (پارامتر تنظیم سرعت یادگیری شبکه می باشد )‌
= وزن مربوطه
= ورودی به نرون وخروجی از نرون
اثبات این قانون از روش تندترین فرود می باشد که بیان می کند با حرکت‌های پی در پی خلاف جهت بردار گردایان خطا می‌توان به نقطه حداقل خطا رسید . این ادعا را نیز می‌توان با استفاده از بسط تیلور تایید کرد (هیکین،1999). در این شیوه وزنها به وسیله یک مقدار با مشتق (گرادیان) اول خطای بین خروجی مطلوب و خروجی واقعی و با توجه به مقدار وزن‌ها تعدیل می‌یابد. در این روش هدف کاهش تابع خطا و رسیدن به حداقل مطلق است .
(3-6)
(3-7)
(3-8)
(3-9)
= ورودی به نرون وخروجی از نرون در لایه ماقبل آخر
= بردار گردایان محلی در لایه آخر
فرایند یادگیری و محاسبات در نرون ها و لایه های پنهان، با استفاده از معادلهی ورودی-خروجی زیر صورت می گیرد:
(3-10)
جائیکه وزن ارتباطی بین نرون iام در لایهی (1-k) و نرون pام در لایهی kام؛ خروجی نرون pام در لایهی kام و تابع فعال سازی سیگموئید نرون pام در لایهی kام است.
همچنین تابع فعال سازی سیگموئید به صورت زیر است:
(3-11)
همانطور که پیشتر بیان شد، به منظور آموزش شبکهی MLP، و دستیابی به پیش بینی مطلوب، باید شبکه را تحت پارامترهای مختلف که همان ویژگی های شبکه است مورد آموزش و یادگیری قرار داد. به عبارت دیگر با تغییر دادن این پارامترها، شبکه وزن‌های خروجی متفاوتی خواهد داد که در نهایت وزنی که کمترین خطا را منجر شود، به عنوان وزن نهایی و پارامترهایی که موجب دستیابی به این وزن شدند به عنوان پارامترها و مشخصه‌های شبکه معرفی می‌شوند. این پارامترها به صورت زیر است:
3-5-3-1. تعداد لایه‌ها ی شبکه
استفاده از یک شبکه تک لایه نمی‌تواند نتایج خوبی در حل مسائل پیچیده غیرخطی ارایه کند (زیرا تابع فعال سازی آن خطی می باشد). در واقع تمام شبکه‌های عصبی با بیش از یک لایه، در بخشی از کار خود از توابع غیرخطی فعال‌ساز استفاده می‌کنند. استفاده از توابع غیرخطی فعال‌ساز باعث می‌شود که توانایی شبکه‌های عصبی در مدل کردن مسائل غیرخطی بروز نماید و جواب‌های مطلوبی در خروجی به ما بدهند. این ویژگی با یک تابع فعال‌سازی غیرخطی مشتق‌پذیر و پیوسته اتفاق می‌افتد. بنابراین برای یک پیش‌بینی دقیق بایستی از شبکه‌های عصبی با بیش از یک لایه استفاده شود، که در لایه‌های میانی آن توابع غیرخطی وجود داشته باشد. البته باید توجه کرد که افزایش بیش از حد لایه‌های شبکه‌های عصبی (بیش از 3 لایه) نیز اصلاً توصیه نمی‌شود. در این بررسی از یک لایه پنهان استفاده شده است.
3-5-3-2. تعداد نرون های هرلایه
مسئله بعدی تعیین تعداد نرون‌های لایه‌های میانی و خروجی است. تعداد نرون‌های لایه ورودی برابر با تعداد متغیرهای مستقل است که در این بررسی همان متغیرهای مدل ریس و همکاران است. اگر هدف از استفاده از شبکه‌های عصبی پیش‌بینی باشد، در لایه خروجی بایستی یک نرون داشته باشیم. اما اگر به منظور طبقه‌بندی یا شناسایی الگو از شبکه‌های عصبی استفاده شود، می‌توان در لایه خروجی از چند نرون استفاده کرد. در تعیین تعداد نرون‌های لایه میانی نیز روش های متعددی ارائه شده است که هیچ کدام از آنها عموما کلیت ندارد. اما بهترین روش برای تعیین تعداد نرون‌ها، روش آزمون و خطا می‌باشد. با افزایش تعداد نرون‌های لایه پنهان از یک مقدار کوچک به مقادیر بزرگ، ابتدا مجموع خطا کاهش می‌یابد اما پس از رسیدن مقدار نرون‌ها به اندازه معین این خطا دوباره افزایش می‌یابد. بدین روش می‌توان بهترین اندازه شبکه را انتخاب نمود. در واقع با هر بار تعیین گره میزان خطای شبکه مشخص می‌شود که با مقایسه این خطاها بهترین تعداد نرون را می‌توان انتخاب کرد.
این نوشته در علمی ارسال شده است. افزودن پیوند یکتا به علاقه‌مندی‌ها.