معرفی سه شبکه عصبی مصنوعی ساده
تاریخ : 2015/08/03 نویسنده : h.gh دیدگاه : 0
  1. شبکه هاپفیلد

هاپفیلد (HopField) در سال ۱۹۸۲ طرح اصلی حافظه ها را ارائه کرد. این حافظه یا شبکه عصبی دارای دو عنصر گره و یال می باشد. هر گره دارای دو وضعیت فعال و غیر فعال است (صفر یا یک) و هر یال نیز دارای یک وزن می باشد. یال ها با وزن مثبت بین دو گره تا گره فعال دیگری را تحریک می کنند و یال های با وزن منفی بین دو گره، گره فعال دیگری را غیر فعال میسازد.

نحوه عملکرد شبکه بدین صورت است که ابتدا یک گره به تصادف انتخاب می شود . اگر یک یا بیش از یکی از گره های مجاور آن گره فعال بودند جمع وزندار یال های منتهی به آن گره ها حساب می شود. اگر این جمع مثبت بود گره فعال می شود و در غیر این صورت گره مذکور غیر فعال باقی خواهد ماند. سپس مجددا یک گره دیگر به تصادف انتخاب شده و همین عملیات آنقدر تکرار می شود تا شبکه به حالت پایدار برسد.

      ۲٫ شبکه پرسپترون

شبکه های عصبی پرسپترون (Perceptron)، به ویژه پرسپترون چند لایه، در زمره کاربردی ترین شبکه های عصبی می‎باشند. این شبکه ها قادرند با انتخاب مناسب تعداد لایه ها و سلول های عصبی، که اغلب زیاد هم نیستند، یک یک نگاشت غیر خطی را با دقت دلخواه انجام دهند. این همان چیزی است که در بسیاری از مسائل به عنوان راه حل اصلی مطرح می باشد.
یک پرسپترون برداری از ورودی های با مقادیر حقیقی را گرفته و یک ترکیب خطی از این ورودی ها را محاسبه می کند. اگر حاصل از یک مقدار آستانه بیشتر بود خروجی پرسپترون برابر با ۱ و در غیر اینصورت معادل -۱ خواهد بود.

3

یادگیری یک پرسپترون

یادگیری پرسپترون در واقع پیدا کردن مقادیردرستی برای W می باشد بنابراین فضای فرضیه H در یادگیری پرسپترون عبارت است ازمجموعه تمام مقادیر حقیقی ممکن برای بردارهای وزن.

خروجی پرسپترون توسط رابطه زیر مشخص می شود:

4

که برای سادگی می توان آن را به صورت زیر نشان داد:

5

اضافه کردن بایاس

افزودن بایاس موجب می شود تا استفاده از شبکه پرسپترون با سهولت بیشتری انجام شود.

برای اینکه برای یادگیری بایاس نیازی به استفاده از قانون دیگری نداشته باشیم بایاس را بصورت یک ورودی با مقدار ثابت ۱ در نظر گرفته و وزن را به آن اختصاص می دهیم.

6

                                                                                                                                          7

الگوریتم یادگیری پروسپترون

 

مقادیری تصادفی به وزن ها نسبت می دهیم.

پرسپترون را به تک تک مثال های آموزشی اعمال می کنیم. اگر مثال غلط ارزیابی شود مقادیر وزن های پرسپترون را تصحیح می کنیم.

آیا تمامی مثال های آموزشی درست ارزیابی می شوند؟

بله  ——–>     پایان الگوریتم

خیر   ——->    به مرحله ۲ بر می‎گردیم

         ۳٫شبکه کوهونن

یک نگاشت خود سازمانده یا (SOM) یک نوع شبکه عصبی مصنوعی است که از طریق یادگیری بدون نظارت برای تولید فضای حالت با بعد کم، از فضای ورودی، آموزش داده می شود. نگاشت های خودسازمانده با شبکه های عصبی مصنوعی دیگر از این جهت تفاوت دارد که از یک تابع همسایگی برای حفظ کردن ویژگی فضای ورودی استفاده می کند. این خصوصیت باعث می شود که این نگاشت ها، برای دادن شهود از یک مجموعه ی داده ها با بعد زیاد مناسب باشند. این مدل ابتدا توسط پروفسر کوهونن به عنوان یک شبکه عصبی مصنوعی ارائه شده است و به همین دلیل این نگاشت را نگاشت کوهونن نیز می نامند.

همانند بسیاری از شبکه های عصبی مصنوعی دیگر،SOM ها، در دو فاز عمل می کنند. فاز آموزش، و فاز نگاشت. فاز آموزش، نگاشت را با استفاده از مثال های ورودی می سازد. این فاز یک پروسه رقابتی است که چندی سازی برداری نیز نامیده می شود. عمل نگاشت، به صورت خودکار بردارهای ورودی را دسته بندی می کند. یک نگاشت خود سازمانده شامل بخش هایی است که گره ها، یانرون ها نامیده می شوند. با هر نرون یک بردار وزن که بعد آن به اندازه ی بعد بردارهای ورودی است و یک عدد که موقعیت نرون را در نگاشت مشخص می کند وجود دارد. چینش های معمول برای نرون ها، چیدن مستطیلی و شش ضلعی است.

نگاشت خودسازمانده، یک نگاشت از ورودی با بعد فضای حالت بزرگتر به یک فضای حالت کوچکتر توصیف می کند. رویه ی قرار دادن یک بردار از فضای داده ها به یک نرون خروجی، ابتدا از پیدا کردن برداری که به بردار ورودی نزدیک تر است شروع می شود. وقتی که نزدیک ترین نرون تعیین شد، نگاشت از ورودی به آن نرون انجام می شود. در حالی که معمول است این نوع از ساختار شبکه را در رده ی شبکه های انتشار به جلو در نظر بگیریم، اما این ساختار به طور بنیادی در چینش، تفاوت دارد.

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *