پایان نامه مقدمه ای بر شبکه های عصبی مصنوعی و کاربردهای آن


دنلود مقاله و پروژه و پایان نامه دانشجوئی

پایان نامه مقدمه ای بر شبکه های عصبی مصنوعی و کاربردهای آن مربوطه  به صورت فایل ورد  word و قابل ویرایش می باشد و دارای 156  صفحه است . بلافاصله بعد از پرداخت و خرید لینک دانلود پایان نامه مقدمه ای بر شبکه های عصبی مصنوعی و کاربردهای آن نمایش داده می شود، علاوه بر آن لینک مقاله مربوطه به ایمیل شما نیز ارسال می گردد

فهرست مطالب

مقدمه ای بر شبکه های عصبی مصنوعی و کاربردهای آن:   1
الهام از نورون واقعی :   2
مدل ریاضی نرون :   2
کاربردها :   5
تاریخچه :   7
شبکه عصبی چیست؟   7
2- شبکه‌های عصبی مصنوعی: 2-1- شبکه‌های عصبی مصنوعی:   8
2-2- مشخصات مسائل در خور شبکه‌های عصبی مصنوعی 9
2-3- کاربردهای شبکه‌های عصبی مصنوعی ANN :   10
انواع یادگیری برای شبکه های عصبی: 1. یادگیری با ناظر:   11
2. یادگیری تشدیدی:   11
3. یادگیری بدون ناظر:   12
2-4- زمینه‌ای درموردperceptron  Perceptron های ساده:   13
الگوریتم ژنتیک :   15
الگوريتم ژنتيک چيست؟   18
شرايط خاتمه الگوريتم هاي ژنتيک عبارتند از:   21
ايده اصلي :   21
الگوريتم :   22
سود و کد :   23
روش هاي نمايش :   23
روش هاي انتخاب :   24
روش هاي تغيير:   25
تقاط قوت الگوريتم هاي ژنتيک:   25
محدوديتهاي GAها :   27
چند نمونه از کاربرد هاي الگوريتم هاي ژنتيک :   27
نسل بعدي :   30
انتخاب :   31
تغيير از يک نسل به نسل بعدي(Cross over)   :   31
جهش(Mutation) :   32
هايپر هيوريستيک :   32
الگوريتم ژنتيكي ساده :   34
معرفي الگوريتم :   34
محدوده كاربرد الگوريتمهاي ژنتيكي :   35
اصول الگوريتم هاي ژنتيكي :   35
يك تكنيك كددار كردن براي حلهاي ارائه شده:   36
جهش: تغييرات اتفاقي:   36
حلهاي كانديد شده :   36
شروع:   37
ارزيابي:   37
مرحله انتخاب:   38
چرخه رولت :   39
تركيب  :   39
جهش :   40
جايگزيني و ادامه:   42
اندازه كارآيي يك نسل:   42
پيكربندي الگوريتم‌هاي ژنتيكي :   42
مهمترين پارامترهاي پيكربندي الگوريتم ژنتيكي :   43
الگوريتم ژنتيكي در انتخاب متغير:   44
كاربردهاي الگوريتم ژنتيك :   44
نتيجه‌گيري کلی (الگوریتم ژنتیک):   45
الگوریتم مورچگان :   46
کاربردهای الگوریتم مورچگان :   46
معرفي شبکه هاي عصبي مصنوعي:   48
تعريف شبکه هاي عصبي مصنوعي :   51
معرفي مدل نرون ساده خطي:   51
تکنيکهاي تعيين پارامترهاي نرون خطي :   53
شبکه هاي پرسپترون چند لايه :   56
الگوريتم يادگيري شبکه هاي پرسپترون ( انتشار به عقب ):   57
ساختار يك شبكه عصبي ساده :   62
‌‌ويژگي‌هاي يك شبكه‌عصبي‌: Robert Callan در كتاب ماهيت شبكه‌‌هاي عصبي> مجموعه‌اي از ويژگي‌هاي يك شبكه عصبي را معرفي كرده است كه در ادامه بررسي مي‌شوند.   63
● مجموعه‌اي از واحدهاي پردازشي ساده :   63
● الگويي براي اتصال :   64
● قاعده‌اي براي انتشار سيگنال‌ها در شبكه‌:   64
● قواعدي براي تركيب سيگنال‌هاي ورودي‌:   64
● قاعده‌اي براي تجميع يك سيگنال خروجي‌:   64
●يك قاعده يادگيري براي تغيير Weightها :   65
شبکه عصبی چند لایه :   65
ايده اصلی شبكههای عصبی :   67
حال ببينيم كه ايده اصلی عملكرد اين شبكهها چگونه است؟   68
تشخیص الگوی صدا با استفاده از شبکه عصبی:   70
2) روش استفاده شده برای تشخیص:   71
3.  ساختار شبیه سازی و آزمون:   78
4. نتیجه گیری:   80
آشنايي با شبكه‌هاي عصبي (Neural Networks) – قسمت اول   81
شباهت با مغز:   82
روش كار نرون‌ها :   83
مدل رياضي  :   84
پياده‌سازي‌هاي الكترونيكي نرون‌هاي مصنوعي :   86
عمليات شبكه‌هاي عصبي – Neural Networks (قسمت دوم):   88
اشاره :   88
عمليات شبكه‌هاي عصبي:   89
آموزش شبكه‌هاي عصبي:   91
آموزش unsupervised يا تطبيقي (Adaptive) :   93
تفاوت‌هاي شبكه‌هاي عصبي با روش‌هاي محاسباتي متداول و سيستم‌هاي خبره :   94
انواع شبكه‏ها از نظر برگشت پذيري :   95
1. شبكه‏هاي پيش‏خور (Feed Forward) :   95
برخی اهم کاربرد شبكه‏هاي عصبي در مباحث مهندسي صنايع :   96
يك شبكه عصبي جديد و كاربرد آن:   98
1- معرفي :   98
2- نورون با خاصيت آشوبگونه :   99
3- شكل شبكه :   100
4- قانون آموزش شبكه :   101
5- مدلسازي ژنراتور سنكرون دريايي :   104
5-1  روش مدلسازي ديناميك :   104
5-2 نتايج مدلسازي :   106
6- نتيجه :   108
شبکه های عصبی و الگوریتم های ژنتیک در تجارت(1) :   109
فناوری شبکه عصبی :   111
فناوری الگوریتم ژنتیک :   113
مروری بر کاربردهای تجاری :   114
شبکه های عصبی و الگوریتم های ژنتیک در تجارت (2):   114
بازاریابی  :   115
بانکداری و حوزه های مالی:   117
پیش بینی :   118
سایر حوزه های تجاری :   119
مزایای استفاده از فناوریهای هوش مصنوعی :   119
نتایج :   119
سنكرون سازي تاخيري تطبيقي شبكه هاي عصبي تاخيريافته ناشناخته و آشوبگونه با اغتشاش ناشي از نويز   120
1-  معرفي:   120
2-  نمادها و مقدمات:   121
3- نتايج مهم:   124
5- كاربردها :   132
6- نتيجه :   134
معماری شبکه عصبی مصنوعی:   134
معماری یک لایه :   136
معماری چند لایه :   137
پیاده سازی سیستم گاو شیرده بااستفاده از درخت‌هاي تصميم‌گيري   139
درخت‌ تصميم‌گيري :   141
معيارهاي انتخاب صفت :   142
درختان Hoeffding:   142
سيستم VFDT :   143
شرح عملکرد الگوريتم :   144
نتیجه گیری :   146
منابع :   147

مقدمه ای بر شبکه های عصبی مصنوعی و کاربردهای آن:

امروزه با شکسته شدن پی در پی استقلال ، شاخه های مختلف علوم و بهره وری شاخه ای از شاخه ی دیگر و پیشبرد مسائل پیچیده خود، پیوستگی و لاینفک بودن تمامی شاخه های علوم را نمایان تر می سازد که سرمنشأ تمامی آنها از یک حقیقت نشأت گرفته و آن ذات باری تعالی است.اولین تلاش ها به منظور ارائه ی یک مدل ریاضی برای سیستم عصبی انسان در دهه 40 توسط Mcculloch , pitts انجام شد ، که حاصل آن یک نورون ساده ی تک لایه ویک روش برای آموزش آن بود . در ادامه ی این کار Hebb نتایج آزمایشات پاولف را در مورد شرطی شدن ،گسترش داد و یک روش برای یادگیری ارائه کرد . در سال 1958 ،Rossonblatt شبکه ی پرسپترون را ارائه کرد . بعد از مدتی اثبات شد شبکه ی عصبی پرسپترون تک لایه نمی تواند تابع ساده ای مانند EX-OR را بیاموزد .بنابراین تقریباً تا دهه ی 80 تلا ش ها برای گسترش شبکه ی عصبی بسیار کم بود. سپس در طی یک مقاله اثبات شد که شبکه ی عصبی پرسپترون چند لایه می تواند به عنوان یک تخمین گر جهانی مطرح شود . بدین معنی که این شبکه قابلیت دارد هر تابع غیرخطی را با دقت دلخواه مدل سازی کند . از آن به بعد شبکه های عصبی مصنوعی گسترش یافتند و در زمینه های بسیاری از آنها استفاده شد .

سیستم شبکه ی عصبی مصنوعی از مغز وسیستم عصبی انسان الهام گرفته شده و مانند مغز انسان از تعداد زیادی نورون تشکیل شده است . این شبکه ها مانند مغز انسان دارای قابلیت یادگیری هستندکه از مزیت های عمده ی این سیستم هاست در مواردی که نتوانیم یک الگوریتم حل به صورت فرمولی بیابیم یا تعداد زیادی مثال از ورودی و خروجی سیستم موردنظرمان در اختیار داشته باشیم و بخواهیم برای آن سیستم ، مدل ارائه کنیم یا اینکه یک ساختار از اطلاعات موجود بدست آوریم ، استفاده از شبکه های عصبی مصنوعی سودمند است . تاکنون برای شبکه های عصبی توپولوژی های مختلف همراه با کاربردهای متنوع ارائه شده است که طیف وسیعی از موضوعات را پوشش می دهد .

 

الهام از نورون واقعی :

سیستم عصبی انسان و مغز وی متشکل از ترکیب و به هم پیوستن تعداد زیادی سلول به نام نورون می باشد . تعداد نورون های مغز انسان به طور متوسط حدود 100 تریلیون می باشد . یک نورون دارای تعداد زیادی ورودی و یک خروجی است . خروجی می تواند دو حالت فعال یا غیرفعال را اختیار کند . در یک نورون ورودی ها تعیین می کنند که خروجی نرون فعال یا غیرفعال باشد . یک نرون از یک حجم سلولی ، تعداد زیادی « دنوریت » به عنوان ورودی و یک « اکسون » به عنوان خروجی تشکیل شده است.

به محل اتصال اکسون یک سلول به دنوریت های یک سلول دیگر نیز «سیناپس » می گویند که نقش بسزایی در سیستم عصبی ایفا می کند . سیناپس می تواند در طول دوره ی یادگیری نسبت به سیگنال های ورودی تغییر کند .در این قسمت به قانون یادگیری «هبی» اشاره می کنیم . این قانون به طور ساده به این صورت می باشد که اگر ورودی های یک نرون به طور مکرر منجر به فعال شدن خروجی شود ، یک تغییر متابولیک در سیناپس اتفاق می افتد که در طی آن مقاومت سیناپس نسبت به آن ورودی خاص کاهش می یابد.

مدل ریاضی نرون :

یک نرون مجموع وزن های ورودی را حساب کرده و براساس یک تابع فعالیت ( که در حالت ساده می تواند یک Threshold باشد ) خروجی را تعیین می کند . اگر این مجموع از ترشلد بیشتر باشد خروجی نرون   « یک » می شود در غیر این صورت خروجی نرون منفی یک ( 1- ) خواهد شد .

به عنوان مثال یک شبکه عصبی ساده به نام perceptron را در نظر می گیریم این شبکه در شکل زیر نشان داده شده است در این شبکه چند ورودی وجود دارد که یکی از آنها مربوط به بایاس است . تابع فعالیت نورون نیز به صورت یک ترشلد خطی می باشد و شبکه دارای یک خروجی است . در این شبکه سیناپس ها به صورت وزن های اتصالات در نظر گرفته شده است . به عنوان مثال فرض کنید که می خواهیم یک OR منطقی را به وسیله ی این شبکه مدل کنیم. هدف از الگوریتم یادگیری ، بدست آوردن وزن های مناسب برای حل مسئله ی مورد نظر ما می باشد .

قانون یادگیری شبکه به صورت زیر است که بیان کننده ی تغییرات وزن ، نرخ سرعت یادگیری و یک عدد ثابت می باشد .D بیان کننده ی خروجی مطلوب است که در الگوهای آموزشی وجود دارد Y بیان کننده ی خروجی به دست آمده از شبکه است و بیان کننده ورودی است .یادگیری همان طور که قبلاً اشاره شد ، از شبکه های عصبی مصنوعی برای مدل کردن سیستم هایی که غیرخطی یا جعبه سیاه هستند و ما از دینامیک داخلی سیستم خبری نداریم و فقط یک سری (ورودی – خروجی ) از سیستم داریم ، می توان استفاده کرد . بدین ترتیب که ابتدا یک توپولوژی مناسب از شبکه در نظر می گیریم، تعداد و نحوه ی اتصالات نورون ها را مشخص می کنیم و یک سری وزن های ابتدایی برای اتصالات در نظر می گیریم . در مرحله ی آموزش، هدف این است که با اعمال مجموعه «ورودی – خروجی » های سیستم مورد نظر وزن های اتصالات را طوری تنظیم کنیم که بتوانیم با دادن ورودی هایی غیر از ورودی های مجموعه ی آموزشی مان خروجی متناسب با سیستم مورد نظر بدست بیاوریم . به بیان دیگر بتوانیم سیستم رامدل کنیم.

در شکل توپولوژی یک شبکه عصبی که دارای لایه های مختلفی است ، این شبکه ، ازلایه های مختلفی تشکیل شده که بیان کننده ی نحوه ی اتصال نورون ها به یکدیگر می باشد . لایه ی ورودی شامل نورون نبوده و فقط بیان کننده ی ورودی هاست . به نورون هایی که مستقیم ، به خروجی متصل می شوند، لایه ی خروجی گفته می شود .بقیه لایه ها – غیر از ورودی و خروجی – لایه های پنهان نام دارند . به طور کلی فرآیند یادگیری را می توان به 3 دسته تقسیم کرد.

1- یادگیری نظارت شده Supervised Learning در این روش همان طور که قبلاً اشاره شد یک مجموعه ی آموزشی در نظر گرفته می شود و یادگیرنده بر اساس یک ورودی عمل کرده و یک خروجی به دست می آورد . سپس این خروجی توسط یک معلم که می تواند خروجی مورد نظر ما باشد مورد ارزیابی قرار می گیرد و براساس اختلافی که با خروجی مطلوب دارد یک سری تغییرات در عملکرد یادگیرنده به وجود می آید . این تغییرات می تواند، وزن های اتصالات باشد . یک مثال برای این روش الگوریتم « پس انتشار خطا »Back propagation error می باشد که در شبکه های پرسپترون برای آموزش ، مورد استفاده قرار می گیرد.

2- یادگیری نظارت نشده unsupervised Learning در این روش، حین فرآیند یادگیری از مجموعه های آموزشی استفاده نمی شود و به اطلاعات در مورد خروجی مطلوب نیز نیاز ندارد . در این روش معلمی وجود ندارد . و معمولاً برای دسته بندی وفشرده سازی اطلاعات استفاده می شود . یک مثال برای این روش الگوریتم kohonen می باشد .

3- یادگیری تقویتی Rein forcement learning در این روش یک معلم به عنوان یاد دهنده وجود ندارد و خود یادگیرنده با سعی و خطا آموزش می بیند . در این روش یک استراتژی اولیه در نظر گرفته می شود . سپس این سیستم بر اساس همان رویه عمل می کند و یک پاسخ از محیطی که در آن فعالیت می کند، دریافت می کند. سپس بررسی می شود که آیا این پاسخ ، مناسب بوده یا خیر و با توجه به آن ، یادگیرنده یا مجازات می شود یا پاداش می گیرد . اگر مجازات شود عملی را که منجر به این مجازات شده در دفعات بعدی کمتر تکرار می شود و اگر پاداش بگیرد سعی می کند آن عملی که منجر به پاداش شده است ، بیشتر انجام دهد.

یک دیدگاه دیگر نسبت به یادگیری می تواند به تقسیم بندی زیر منجر شود :

1- یادگیری Off Line : در این روش وزن ها طی زمانی که سیستم در حال اجرای کار اصلی خودش می باشد ، ثابت هستند و تغییرات وزن ها درطول یادگیری صورت می پذیرد .

2- یادگیری On Line : در این روش وزن ها در دوره ی عملکرد واقعی سیستم نیز تغییر می کنند و دوره ی یادگیری و عملکرد سیستم از یکدیگر جدا نیستند . بدین ترتیب این سیستم دارای قابلیت بیشتری برای مقابله با تغییرات دینامیک محیط است . اما منجر به شبکه هایی با ساختار پیچیده تر می شود . چند نکته : ابتدا این که تعداد بهینه ی نورون های لایه های مخفی همچنین تعداد لایه های مخفی چقدر است؟ باید گفت به طور کلی برای این مسئله ، یک جواب تئوریک وجود ندارد بلکه به صورت تجربی و با توجه به کاربرد آن می توان به یک ساختار مناسب رسید . البته می توان از روش های بهینه سازی مانند « ژنتیک الگوریتم » برای حل این مسئله استفاده کرد . مسئله ی مهم دیگر بحث Overtraining می باشد که از اهمیت زیادی برخوردار است . این مورد بیان می کند که اگر تعداد داده های آموزش بسیار زیاد باشد شبکه بیشتر به عنوان حافظه عمل خواهد کرد و نمی تواند پاسخ مناسبی برای مدل سیستم ما باشد . از سوی دیگر اگر داده های آموزشی ما در تمام فضای مسئله پراکنده نباشد یا تعداد آنها کافی نباشد، شاید شبکه ی ما همگرا نشود .

کاربردها :

شبکه های عصبی در موارد زیر دارای کارایی زیادی می باشند :

پیداکردن الگوهای پیچیده از میان یک سری اطلاعات

درمسایلی که با اطلاعات غیر دقیق سروکار داریم.

در مسایلی که با اطلاعات نویزی سروکار داریم . مانند
1-prediction
2-Classification
3-Dataassociation
4-Dataconceptualizefion
5-filtering
6- planning

چند کاربرد عملی و مفید آن که تاکنون بر روی آنها فعالیت زیادی انجام شده عبارتند از :

1- پیشگویی prediction ) از اطلاعات بدست آمده در گذشته(
– پیش بینی وضعیت آب و هوا
– پیش بینی وضعیت سهام در بورس
– پیش بینی سری های زمانی
2- کلاسه بندی Classification
– پردازش تصویر
– دسته بندی اهداف در رادارها
3- تشخیص Recognition
– تشخیص نوع بمب درصنایع نظامی
– تشخیص حرو ف
– تشخیص امضاء
– تشخیص چهره
4- دیگر کاربردهای آن به صورت کلی شامل موارد زیر است :
Regularitydetection
– speechanalysis
– optimizationproblems
– Robotstearing
– Processing of inaccurate or in complteinputs
– Stock market forecasting simulation
به عنوان مثال کاربری می توان تخمین موقعیت کاربر مخابرات سیار در محیط شهری را بیان کرد . برای این کار می توان مکان کاربر را با تلفیق زاویه و زمان دریافت ، سیگنال را بهوسیله ی شبکه های پرسپترون چند لایه و RBF تخمین زد . بدین منظور دو روش مختلف در نظر گرفته شده است . در روش اول تنها از یک شبکه ی عصبی استفاده می شود . و در روش دوم که سلسله مراتبی نامیده می شود عمل تخمین توسط بیش از یک شبکه ی عصبی صورت می پذیرد. به این ترتیب که نخست موقعیت کاربر به صورت تقریبی توسط شبکه ی لایه ی اول انجام می شود و سپس با استفاده از شبکه عصبی لایه ی دوم که برای ناحیه ی کوچکتری آموزش دیده است ، تخمین بهتری از موقعیت کاربر بدست می آید با افزایش تعداد لایه ها می توان به دقت بهتری دست یافت برای انتشار مسیر غیر خط دیده (NLOS ) امواج ، از دو روش استفاده شده است . در روش اول ( محیط غیر شهری ) دایره ای به مرکز فرستنده و شعاع مشخص به عنوان ناحیه ی پراکندگی در نظر گرفته شده که امواج در این ناحیه پراکنده شده وبه گیرنده می رسند. در روش دوم ، از محیط های شهری که دارای ساختار مشخصی هستند ، استفاده شده است . برای شبیه سازی انتشار امواج در محیط های شهری ، نرم افزاری نوشته شده و پرتوهایی که از فرستنده ساطع می شوند را به صورت دو بعدی دنبال می کند . این عمل تا هنگامی که توان پرتو از یک مقدار آستانه کمتر نشده و یا پرتو از محیط مورد نظر خارج نگردیده ادامه می یابد نتایج شبیه سازی نشان می دهد که در محیط غیر شهری با شعاع ناحیه ی پراکندگی 300 متر و نسبت سیگنال به نویز بی نهایت ، در صورت استفاده از یک ایستگاه پایه وپرسپترون با ساختار سلسله مراتبی در66 % موارد کاربر با خطای کمتر از 125 متر تخمین زده می شود . نتایج مشابه برای محیط شهری نشان می دهد با استفاده از پنج لایه ، احتمال خطای کمتر از 125 متر در تخمین موقعیت کاربر به 86% افزایش می یابد . در صورت استفاده از دو ایستگاه پایه ی این احتمال به 91% می رسد . نتایج حاصل از شبکه عصبی RBF نشان می دهد که دقت های مشابهی توسط این شبکه بدست می آید ضمن آنکه آموزش شبکه اخیر حدود پنجاه برابرسریع تر از شبکه پرسپترون است . این نتایج نشان می دهد دقت مورد نظر استاندارد E-911 باروش های پیشنهادی به دست می آید.{5}

تاریخچه :

شبکه‌های عصبی دهها سال است که جلب توجه می‌کنند وتاکنون راه حلهایی برای استفاده از هوش بشری ارائه شده است. اولین نرون مصنوعی درسال 1943 توسط نروفیزیولوژیست وارن‌مک‌کالوک و منطق دان والتر‌پیتز تولید شد.در دهه 60 به دلایلی که خارج از بحث این مقاله است مردم به‌سوی شبکه‌های عصبی متمایل شدند و تنها در دهه 80 دانشمندان توانایی‌های واقعی شبکه‌های عصبی را دیدند .

شبکه عصبی چیست؟

شبکه های عصبی مصنوعی (Artificial Neural Network) الگویی برای پردازش اطلاعات می باشند که با تقلید از شبکه های عصبی بیولوژیکی مثل مغز انسان ساخته شده اند.عنصر کلیدی این الگو ساختار جدید سیستم پردازش اطلاعات آن می باشد و از تعداد زیادی عناصر (نرون) با ارتباطات قوی داخلی که هماهنگ با هم برای حل مسائل مخصوص کار می کنند تشکیل شده اند. شبکه های عصبی مصنوعی با پردازش روی داده های تجربی، دانش یا قانون نهفته در ورای داده ها را به ساختار شبکه منتقل می کند که به این عمل یادگیری می گویند. اصولاً توانایی یادگیری مهمترین ویژگی یک سیستم هوشمند است. سیستمی که بتواند یاد بگیرد منعطف تر است وساده تر برنامه ریزی میشود، بنابراین بهتر میتواند در مورد مسایل و معادلات جدید پاسخگو باشد. انسانها از زمانهای بسیار دور سعی بر آن داشتند که بیوفیزیولوژی مغز را دریابند چون همواره مسئله هوشمندی انسان و قابلیت یادگیری ،تعمیم،خلاقیت،انعطاف پذیری و پردازش موازی در مغز برای بشر جالب بوده و بکارگیری این قابلیتها در ماشینها بسیار مطلوب می نمود.روشهای الگوریتمیک برای پیاده سازی این خصایص در ماشینها مناسب نمی باشند در نتیجه می بایست روشها مبتنی بر همان مدلهای بیولوژیکی باشد.ANN درست مثل انسانها با استفاده از مثالها آموزش می بیند ; همانطور که یک بچه با دیدن انواع مختلف از یک حیوان قادر به تشخیص آن می باشد.{6}

2- شبکه‌های عصبی مصنوعی:

2-1- شبکه‌های عصبی مصنوعی:

شبکه‌های عصبی شبیه به مغز انسان اطلاعاتی را پردازش می‌کنند. شبکه‌ از تعداد زیادی سلولهای عصبی(Neuron ها) تشکیل شده با پردازشی بسیار بزرگ و به‌هم پیوسته که در حل موازی مسائل ویژه مشغول به کارند.یادگیری شبکه‌های عصبی از طریق مثالهاست. آنها برای انجام یک کار خاص برنامه‌ریزی نشده‌اند. مثالها باید با دقت بسیار بالایی انتخاب شوند والا زمان مفید هدر خواهد رفت و یا حتی ممکن است شبکه به طور ناقص دایر شود و در اینجا راهی برای فهمیدن اینکه سیستم معیوب است یا خیر وجود ندارد مگر اینکه خطایی رخ دهد.شبکه‌های عصبی مصنوعی یک ترکیبی از مجموعه نرون‌هاست و البته نرونهای مصنوعی‌ای که بسیار شبیه به نرونهای زیستی کار می‌کنند. و بدین گونه است که ورودیهای زیادی با وزنهای مختلف می‌گیرد و یک خروجی که به ورودی وابسته است تولید می‌کند. نرونهای زیستی می‌توانند در حال برانگیزش باشند یا نباشند. (وقتی یک نرون برانگیخته می‌شود ضربه علائم خروجی آن مقداری کمتر از 100 هرتز است) شبکه‌های عصبی استفاده وسیعی در شناسایی الگوها دارند زیرا از خودشان قابلیت آن را دارند که بطور عمومی به ورودی‌های غیر منتظره نیز پاسخ دهند. در طول ساخت نرونها می‌آموزند که چگونه الگوهای ویژه گوناگون را تشخیص دهند. اگر الگویی پذیرفته شود در حالی که در طول اجرا ورودی با خروجی مرتبط نباشد، نرون از مجموعه‌ای از الگوهایی که سابقا آموخته خروجیی را که شبیه به الگو می‌باشد وکمترین تفاوت را با ورودی دارد انتخاب می‌کند. این روال عموما فراخوانی می‌شود.

مثال:
وقتی که ورودی نرون 1111 باشد چهار ورودی بر حسب برانگیزش مرتب شده‌اند و وقتی ورودی‌های 0000 را داریم نرون برای برانگیزش مرتب نیست. قاعده عمومی این است که نرونها مایلند برانگیخته شوند وقتی که ورودی‌ها 0111 ، 1011 ، 1101 ، 1110 یا 1111 باشند و در صورتی که ورودی آنها 1000 ، 0001 ، 0010 ، 0100 یا 0000 باشند مایل به برانگیخته شدن نیستند.شناسایی الگوهای پیچیده سطح بالا می‌تواند به وسیله شبکه‌ای از نرونها انجام شود و بدین ترتیب نام آن را شبکه‌های عصبی مصنوعی گذاشتند. اکنون شبکه‌های عصبی کاربردهای زیادی دارند(درمنطق وکلام و شناسایی عکسها)البته شناسایی الگوهامی‌تواند به‌طور موفقیت آمیز بر روی کامپیوترهای عمومی انجام شود. این شبکه‌های عمومی که برای شناسایی الگوها استفاده می‌شوندFeed-Forward  نامیده می‌شدند زیرا آنها یک بازخورد (Feed-Back) داشتند. آنها به‌طور ساده ورودی‌ها را با خروجی‌ها می‌آمیختند. اما شناسایی الگوها به تدریج کاملتر شد به‌طوریکه بر روی کامپیوترهای عمومی با سیستم خاص خودشان به‌سختی انجام می‌شد پس برای شناسایی الگوها شبکه‌های Feed-Forward کافی نبودند.در شبکه‌های عصبی خروجی هر نرون به ورودی نرونهای مجاورش متصل شده است. شبکه‌های عصبی نمی‌توانند معجزه کنند اما اگر به درستی استفاده شوند نتایج شگفت‌انگیزی خواهند داشت .

2-2- مشخصات مسائل در خور شبکه‌های عصبی مصنوعی

تقلید از ساختارهای محاسباتی سیستم زیستی ممکن است ایده اصلی نمونه‌های محاسباتی برای ساخت کلاسهایی از مسائل باشد. از جمله این مسائل می‌توان از مسائل مشکل NP که شامل مسائل طبقه‌بندی شده، زمانبندی‌شده، جستجو وغیره نام برد، کلاس مسائل شناسایی الگوها، افراد و موضوعات مشخص را در دیدار و تماس با آنها می‌شناسد و کلاس مربوط به داده‌های ناقص، اشتباه، متناقض، فازی و احتمالی. این مسائل توسط همه یا برخی از موارد زیر توصیف می‌شوند :

یک فضای مسئله با بعد بزرگ، پیچیده، ناشناخته با اثرات متقابل پیچیده ریاضی‌وار بین متغییرها و یک فضای راه‌حل که ممکن است خالی باشد(شامل یک راه‌حل یکتا یا بیشتر ، شامل تعدادی از راه‌حلهای مفید)به نظر می‌رسد ANN ها راه‌حلهایی برای مسائلی که با ورودی‌های حسی بیشتر درگیرند ارائه می‌دهد(صحبت‌کردن، دیدن، شناسایی دستخط و…).

2-3- کاربردهای شبکه‌های عصبی مصنوعی ANN :

می‌توان موارد زیر را از کاربردهای شبکه‌های عصبی مصنوعی ذکر کرد :

پردازش تصویر و دید : ( Image processing and computer vision )

پردازش علائم ( Signal processing ): شامل ریخت‌شناسی و تجزیه و تحلیل علائم مربوط به زمین‌لرزه‌ها و…

شناسایی الگوها( Pattern recognition ): شامل شناسایی چهره، اثر انگشت، تشخیص نوع صدا و نوع صحبت کردن، دستخط و …

پزشکی( Medicine ): شامل تجزیه و تحلیل و تشخیص علائم دستگاه ضربان‌نگار قلب

(الکتروکاردیوگرافیک)، تشخیص امراض گوناگون و …

سیستم‌های نظامی( Military systems ): شامل ردیابی مین‌های زیردریایی، دسته‌بندی صداهای نابه‌هنجار و مخل در رادارها و شناسایی گوینده رزمی.

سیستم‌های تجاری( Financial systems ): شامل تجزیه و تحلیل انبار مغازه‌ها، ارزیابی واقعی املاک و …

برنامه‌ریزی، کنترل و جستجو( Planning, control, and search ): شامل اجرای موازی مسائل و کنترل رباتها.

هوش مصنوعی( Artificial intelligence ): شامل برخی سیستم‌های طبی و اجرای سیستم‌های خبره.

سیستم‌های قدرت( Power systems ): شامل برآورد وضعیت سیستم، ردیابی سریع و دسته‌بندی ردیابی، ردیابی خطا و ترمیم آن، پیش‌بینی و برآورد تخمین امنیت.

انواع یادگیری برای شبکه های عصبی:

1. یادگیری با ناظر:

در یادگیری با ناظر به قانون یاد گیری مجموعه ای از زوجهای داده ها به نام داده های یادگیری (Pi,Ti)i={1 … l } می دهند که در آن Pi ورودی به شبکه و Ti خروجی مطلوب شبکه برای ورودی Pi است. پس از اعمال ورودی Pi به شبکه عصبی در خروجی شبکه ai با Ti مقایسه شده و سپس خطای یادگیری محاسبه و از آن در جهت تنظیم پارامترهای شبکه استفاده می شود به گونه ای که اگر دفعه بعد به شبکه همان ورودی Pi اعمال شود خروجی شبکه به Ti نزدیکتر می گردد با توجه به این نکته که معلم سیستمی است که بر محیط وقوف دارد ( مثلا می داند که برای ورودی Pi خروجی مطلوب Ti است ).توجه داریم که محیط برای شبکه عصبی مجهول است . در لحظه k بردار ورودی (Pik) با تابع توضیع احتمال معینی که برای شبکه عصبی نا معلوماست انتخاب و بطور همزمان به شبکه عصبی و معلم اعمال می شود . جواب مطلوب (Tik) نیز توسط معلم به شبکه عصبی داده می شود . در حقیقت پاسخ مطلوب پاسخ بهینه ای است که شبکه عصبی برای ورودی مفروض باید به آن برسد . پارامترهای شبکه عصبی توسط دو سیگنال ورودی و خطا تنظیم می شود.به این صورت که پس از چند تکرار الگوریتم یادگیری که عموما توسط معادله تفاضلی بیان می شودبه پارامترهایی در فضای پارامترهای شبکه همگرا می شوند که برای آنها خطای یادگیری بسیار کوچک است و عملا شبکه عصبی شبکه عصبی معادل معلم می شود . یا به عبارتی دیگر اطلاعات مربوط به محیط (نگاشت بین TiوPi )که برای معلم روشن است به شبکه عصبی منتقل می شود و پس از این مرحله عملا می توان بجای معلم از شبکه عصبی استفاده کرد تا یادگیری تکمیل شود .

2. یادگیری تشدیدی:

یک اشکال یادگیری با ناظر این است که شبکه عصبی ممکن است بدون معلم نتواند مواضع جدیدی را که توسط مجموعه داده های جدید تجربی پوشانده نشده است یاد بگیرد . یادگیری از نوع تشدیدی این محدودیت را برطرف می کند . این نوع یادگیری بطور on-line صورت می گیرد در حالی که یادگیری با ناظر را به دو صورت on-line & off-line می توان انجام داد. در حالت off-line می توان از یک سیستم محاسب با در اختیار داشتن داده های یادگیری استفاده کرد و طراحی شبکه عصبی را به پایان رساند . پس از مرحله طراحی و یادگیری شبکه عصبی به عنوان یک سیستم استاتیکی عمل می کند . اما در یادگیری on-line شبکه عصبی همراه با خود سیستم یادگیر در حال انجام کار است و از این رو مثل یک سیستم دینامیکی عمل می کند . یادگیری از نوع تشدیدی یک یادگیری on-line از یک نگاشت ورودی-خروجی است . این کار از طریق یک پروسه سعی و خطا به صورتی انجام می پذیرد که یک شاخص اجرایی موسوم به سیگنال تشدید ماکزیمم شود و بنابر این الگوریتم نوعی از یادگیری با ناظر است که در آن به جای فراهم نمودن جواب واقعی ، به شبکه عددی که نشانگر میزان عملکرد شبکه است ارایه می شود. این بدین معنی است که اگر شبکه عصبی پارامترهایش را به گونه ای تغییر داد که منجر به یک حالت مساعد شد آنگاه تمایل سیستم یادگیر جهت تولید آن عمل خاص تقویت یا تشدید می شود . در غیر این صورت تمایل شبکه عصبی جهت تولید آن عمل خاص تضعیف می شود . یادگیری تقویتی مثل یادگیری با ناظر نیست و این الگوریتم بیشتر برای سیستمهای کنترلی کاربرد دارد .

3. یادگیری بدون ناظر:

در یادگیری بدون ناظر یا یادگیری خود سامانده پارامترهای شبکه عصبی تنها توسط پاسخ سیستم اصلاح و تنظیم می شوند . به عبارتی تنها اطلاعات دریافتی از محیط به شبکه را برداغرهای ورودی تشکیل می دهند. و در مقایسه با مورد بالا (یادگیری با ناظر) بردار جواب مطلوب به شبکه اعمال نمی شود . به عبارتی به شبکه عصبی هیچ نمونه ای از تابعی که قرار است بیاموزد داده نمی شود . در عمل می بینیم که یادگیری با ناظر در مورد شبکه هایی که از تعداد زیادی لایه های نرونی تشکیل شده باشند بسیار کند عمل می کند و در این گونه موارد تلفیق یادگیری با ناظر و بدون ناظر پیشنهاد می گردد .

2-4- زمینه‌ای درموردperceptron

Perceptron های ساده:

یک خانواده ساده از شبکه‌های عصبی مدل perceptron می‌باشد. در یک دسته‌بندی تک‌خروجی، تعداد n ورودی و یک خروجی دارد . با هر ورودی یک ضریب وزنی Wi و با هر خروجی یک مقدار آستانه q مرتبط است.
Perceptron به گونه زیر عمل می‌کند:

ورودی‌های Perceptron یک بردار ورودی از n مقدار حقیقی است.
Perceptron مجموع وزنها را محاسبه می‌کند a= ه Wi.Xi. این مقدار با مقدار آستانه q مقایسه می‌شود. اگر این مقدار ازمقدار آستانه کوچکتر باشد خروجی 0 است و در غیر این صورت 1 است.

قدرت Perceptron:

به وسیله تنظیم اعداد ورودی، وزن آنها و مقدار آستانه می‌توان یک Perceptron برای انجام نسبتا خوب محاسبات گوناگون طراحی کرد. برای مثال توابع منطقی بولین مانند AND ، OR و NOT را می‌توان به وسیله Perceptron طراحی کرد و هر مدار منطقی دیگر را به وسیله گیتهای AND و NOT یا AND و OR طراحی کرد. دسته‌های زیادی از Perceptronها ممکن است خروجی‌های دسته‌های دیگر را به عنوان ورودی خود درخواست کنند.به عنوان مثالی ازPerceptron ها می‌توان یک تشخیص دهنده قالب متن را نام برد. حرفA درآرایه‌ای 5*5 به‌رمز درمی‌آید(encode می‌شود). این متن(حرف) به‌وسیله یک Perceptron با 25 ورودی تشخیص داده می‌شود که در آن وزنها مقادیری برابر با مقادیر عددی داخل آرایه را می‌گیرند و مقدار آســتانه برابر است با: e-25 =q که در آن 0 < e < 1 .

خروجی Perceptron 1 است اگر و فقط اگر ورودی آن از 1 و 1- هایی باشد که عینا در آرایه آمده است.

دنباله‌های Perceptron:

یکی از خصوصیات جالب Perception این است که آنها می‌توانند به وسیله مثالهای مثبت و منفی ( صحیح و اشتباه) برای انجام توابع دسته‌بندی شده مخصوص بارها مرتب شوند.

حال به یک مثال ساده از Perceptron با دو ورودیX1 وX2 ، که تشخیص می‌دهد که کدام‌یک از دو کلاس، عناصر متعلق به خودش را دارد. ما فرض می‌کنیم که این Perceptron دو طرح از کارکترهای چاپ شده از یک متن را بررسی کند، خروجی 1 است اگر و فقط اگر کاراکتر رقم 8 باشد. فرض کنیم که X1 بیانگر تعداد حفره‌های کاراکتر است و X2 درجه راستی سمت چپ کاراکتر را نشان می‌دهد. ما با 4 ورودی .اگر ما perceptron را در اول کار با وزنهایی برابر 0 و مقدار آستانه را برابر 10 مقداردهی کنیم یک رده‌بندی از همه مثالهای منفی انجام داده‌ایم. با قرار دادن رده‌بندی‌های نادرست از 8 ، مقادیر ورودی از مثال 8 با بعضی فاکتورها مثل d جمع می‌شوند و تولیدات جدید با وزنهای متناظر با ایجاد می‌شوند.

فرض کنیم 1= d پس وزن ورودی‌ها از 0 به 1 و 2 رشد پیدا می‌کند. حال در اینجا 5 = a به دست می‌آید که هنوز از مقدار آستانه 10 کوچکتر است. مثال هنوز به رده‌بندی صحیحی نرسیده است واین قدم دنباله باید تکرار شود. بعد از دو قدم وزنها برابر 2 و 4 می‌شوند که مقدار 10 = a را نتیجه می‌دهد که برابر مقدار آستانه است و مثال مثبت از 8 به طور صحیح دسته‌بندی شده است. از آنجا که ضرایب وزنی تغییر کرده بودند لازم است که در همه مثالها رده‌بندی‌ها بازنشان ( Reset ) شوند. این را می‌توان به سادگی دید که مثال B رده‌بندی نادرستی است زیرا با وزنهای 2 و 4 داریم 24 = a ولی این حرف مورد نظر ما نیست، چون این مرحله را پیش رفته‌ایم لازم است که d.1 از W1 و d.2 از W2 کم شود تا رده‌بندی نادرستی از B ثابت شود. به هر حال یک رده‌بندی از 8 را دوباره بیرون می‌دهد.بعدها موقع بروز خطا ما وزنها را برای درست کردن خطاهای رده‌بندی اصلاح می‌کنیم. اگر مثالها دارای خاصیت صحیحی باشند وزنها در مجموعه‌ای از مقادیری که به درستی روی هر ورودی کار می‌کنند قرار می‌گیرند.

قضیه بنیادی دنباله‌ها:

یک خصوصیت قابل توجه perceptron این است که آنها می‌توانند دنباله‌ای از رده ‌بندی صحیح مثالهای مثبت ومنفی باشند.فرض کنیم: X = X+ ب X-

X+ : مجموعه‌‌ای از مثالهای مثبت

X- : مجموعه‌‌ای از مثالهای منفی

گوییم که رشته بی‌کران S x= X1 , X2 , …, Xk ,… یک رشته متوالی(ترتیبی) برای X است در صورتی که هر Xi یک

مثال در X است و هر عنصر از X اغلب به طور نامحدود در Sx رخ می‌دهد(نمایان می‌شود).

فرض کنیم Wk ضریب وزنی در سطح k دنباله باشد. وزن اولیه می‌تواند به صورت قراردادی باشد (برای مثال W1=0 ). حال

رشته استاندارد حاصله، وزنها را به صورت زیر ارتقا می‌دهد:

بسته به استرادژی مورد نظر ممکن است مقادیر C k همگی یکسان باشند یا ممکن است با k تغییر کنند.

قضیه 1):

باشد و یک بردار حل وزنها برای X وجود داشته باشد, در این صورت رویه رشته استاندارد باید بعد از یک تعداد فرض کنیم یک مجموعه از رشته نمونه X و هر رشته ترتیبی برای آن داریم, اگر Ck یک ثابت مثبت مراحل مشخص یک راه‌حل پیدا

کند به طوری که اگر برای بعضی k0 ها داشته باشیم:

WK0 = WK0+1 = WK0+2 = …
که WK0 یک راه‌حل برای X است. {7}

 

الگوریتم ژنتیک :

الگوریتم ژنتیک که بعنوان یکی از روشهای تصادفی بهینه یابی شناخته شده,  توسط جان هالند در سال 1967 ابداع شده است. بعدها این روش با تلاشهای گلدبرگ 1989, مکان خویش را یافته و امروزه نیز  بواسطه توانایی های خویش , جای مناسبی در میان دیگر روشها دارد. روال بهینه یابی در الگوریتم ژنتیک  براساس یک روند تصادفی- هدایت شده استوار می باشد. این روش , بر مبنای نظریه تکامل تدریجی و ایده های بنیادین داروین پایه گذاری شده است.در این روش , ابتدا برای  تعدادی ثابت که جمعیت نامیده می شود مجموعه ای از پارامترهای هدف بصورت اتفاقی تولید می شود , پس از اجرای برنامه شبیه ساز عددی را که معرف انحراف معیار و یا برازش آن مجموعه از اطلاعات است را به آن عضو از جمعیت مذکور نسبت می دهیم . این عمل را برای تک تک اعضای ایجاد شده تکرار می کنیم , سپس با فراخوانی عملگرهای الگوریتم ژنتیک از جمله لقاح , جهش و انتخاب نسل بعد را شکل می دهیم و این روال تا ارضای معیار همگرایی ادامه داده خواهد شد. هنگامي كه لغت تنازع بقا به كار مي‌رود اغلب بار ارزشي منفي آن به ذهن مي‌آيد. شايد همزمان قانون جنگل به ذهن برسد و حكم بقاي قوي‌تر!   البته براي آنكه خيالتان راحت شود مي‌توانيد فكر كنيد كه هميشه هم قوي‌ترين‌ها برنده نبوده‌اند. مثلا دايناسورها با وجود جثه عظيم و قوي‌تر بودن در طي روندي كاملا طبيعي بازي بقا و ادامه نسل را واگذار كردند در حالي كه موجوداتي بسيار ضعيف‌تر از آنها حيات خويش را ادامه دادند. ظاهرا طبيعت بهترين‌ها را تنها بر اساس هيكل انتخاب نمي‌كند! در واقع درست‌تر آنست كه بگوييم طبيعت مناسب ترين‌ها (Fittest) را انتخاب مي‌كند نه بهترين‌ها.  قانون انتخاب طبيعي بدين صورت است كه تنها گونه‌هايي از يك جمعيت ادامه نسل مي‌دهند كه بهترين خصوصيات را داشته باشند و آنهايي كه اين خصوصيات را نداشته باشند به تدريج و در طي زمان از بين مي‌روند.

مثلا فرض كنيد گونه خاصي از افراد، هوش بسيار بيشتري از بقيه افراد يك جامعه يا كولوني دارند. در شرايط كاملا طبيعي اين افراد پيشرفت بهتري خواهند كرد و رفاه نسبتا بالاتري خواهند داشت و اين رفاه خود باعث طول عمر بيشتر و باروري بهتر خواهد بود(توجه كنيد شرايط طبيعيست نه در يك جامعه سطح بالا با ملاحظات امروزي يعني طول عمر بيشتر در اين جامعه نمونه با زاد و ولد بيشتر همراه است). حال اگر اين خصوصيت(هوش)ارثي باشد به طبع در نسل بعدي همان جامعه تعداد افراد باهوش به دليل زاد و ولد بيشتر اين‌گونه افراد بيشتر خواهد بود. اگر همين روند را ادامه دهيد خواهيد ديد كه در طي نسل‌هاي متوالي دائما جامعه نمونه ما باهوش و باهوش‌تر مي‌شود. بدين ترتيب يك مكانيزم ساده طبيعي توانسته است در طي چند نسل عملا افراد كم هوش را از جامعه حذف كند علاوه بر اينكه ميزان هوش متوسط جامعه نيز دائما در حال افزايش است(البته امكان داشت اگر داروين بي‌عرضگي افراد باهوش امروزي را مي‌ديد كمي در تئوري خود تجديد نظر مي‌كرد اما اين مسئله ديگريست بدين ترتيب مي‌توان ديد كه طبيعت با بهره‌گيري از يك روش بسيار ساده(حذف تدريجي گونه‌هاي نامناسب و در عين حال تكثير بالاتر گونه‌هاي بهينه) توانسته است دائما هر نسل را از لحاظ خصوصيات مختلف ارتقا بخشد.   البته آنچه در بالا ذكر شد به تنهايي توصيف كننده آنچه واقعا در قالب تكامل در طبيعت اتفاق مي‌افتد نيست. بهينه‌سازي و تكامل تدريجي به خودي خود نمي‌تواند طبيعت را در دسترسي به بهترين نمونه‌ها ياري دهد. اجازه دهيد تا اين مساله را با يك مثال شرح دهيم. پس از اختراع اتومبيل به تدريج و در طي سال‌ها اتومبيل‌هاي بهتري با سرعت‌هاي بالاتر و قابليت‌هاي بيشتر نسبت به نمونه‌هاي اوليه توليد شدند. طبيعيست كه اين نمونه‌هاي متاخر حاصل تلاش مهندسان طراح جهت بهينه‌سازي طراحي‌هاي قبلي بوده اند. اما دقت كنيد كه بهينه‌سازي يك اتومبيل تنها يك “اتومبيل بهتر” را نتيجه مي‌دهد.   اما آيا مي‌توان گفت اختراع هواپيما نتيجه همين تلاش بوده است؟ يا فرضا مي‌توان گفت فضا پيماها حاصل بهينه‌سازي طرح اوليه هواپيماها بوده‌اند؟پاسخ اينست كه گرچه اختراع هواپيما قطعا تحت تاثير دستاورهاي صنعت اتومبيل بوده است اما به‌هيچ وجه نمي‌توان گفت كه هواپيما صرفا حاصل بهينه‌سازي اتومبيل و يا فضا پيما حاصل بهينه‌سازي هواپيماست. در طبيعت هم عينا همين روند حكم‌فرماست. گونه‌هاي متكامل‌تري وجود دارند كه نمي‌توان گفت صرفا حاصل تكامل تدريجي گونه قبلي هستند. در اين ميان آنچه شايد بتواند تا حدودي ما را در فهم اين مساله ياري كند مفهوميست به نام : تصادف يا جهش به عبارتي طرح هواپيما نسبت به طرح اتومبيل يك جهش بود و نه يك حركت تدريجي. در طبيعت نيز به همين گونه‌است. در هر نسل جديد بعضي از خصوصيات به صورتي كاملا تصادفي تغيير مي‌يابند سپس بر اثر تكامل تدريجي كه پيشتر توضيح داديم در صورتي كه اين خصوصيت تصادفي شرايط طبيعت را ارضا كند حفظ مي‌شود در غير اين‌صورت به شكل اتوماتيك از چرخه طبيعت حذف مي‌گردد.  در واقع مي‌توان تكامل طبيعي را به اين‌صورت خلاصه كرد: جست‌وجوي كوركورانه)تصادف يا( Blind Search بقاي قوي‌تر.

حال ببينيم كه رابطه تكامل طبيعي با روش‌هاي هوش مصنوعي چيست .هدف اصلي روش‌هاي هوشمند به كار گرفته شده در هوش مصنوعي يافتن پاسخ بهينه مسائل مهندسي ست. بعنوان مثال اينكه چگونه يك موتور را طراحي كنيم تا بهترين بازدهي را داشته باشد يا چگونه بازوهاي يك ربات را محرك كنيم تا كوتاه‌ترين مسير را تا مقصد طي كند(دقت كنيد كه در صورت وجود مانع يافتن كوتاه‌ترين مسير ديگر به سادگي كشيدن يك خط راست بين مبدا و مقصد نيست) همگي مسائل بهينه‌سازي هستند.

روش‌هاي كلاسيك رياضيات داراي دو اشكال اساسي هستند. اغلب اين روش‌ها نقطه بهينه محليLocal) (Optima را بعنوان نقطه بهينه كلي در نظر مي‌گيرند و نيز هر يك از اين روش‌ها تنها براي مساله خاصي كاربرد دارند. اين دو نكته را با مثال‌هاي ساده‌اي روشن مي‌كنيم.

به شكل زير توجه كنيد. اين منحني داراي دو نقطه ماكزيمم مي‌باشد. كه يكي از آنها تنها ماكزيمم محلي است. حال اگر از روش‌هاي بهينه‌سازي رياضي استفاده كنيم مجبوريم تا در يك بازه بسيار كوچك مقدار ماكزيمم تابع را بيابيم. مثلا از نقطه 1 شروع كنيم و تابع را ماكزيمم كنيم. بديهي است اگر از نقطه 1 شروع كنيم تنها به مقدار ماكزيمم محلي دست خواهيم يافت و الگوريتم ما پس از آن متوقف خواهد شد. اما در روش‌هاي هوشمند خاصه الگوريتم ژنتيك بدليل خصلت تصادفي آنها حتي اگر هم از نقطه 1 شروع كنيم باز ممكن است در ميان راه نقطه A به صورت تصادفي انتخاب شود كه در اين صورت ما شانس دست‌يابي به نقطه بهينه كلي (Global Optima) را خواهيم داشت.  در مورد نكته دوم بايد بگوييم كه روش‌هاي رياضي بهينه‌سازي اغلب منجر به يك فرمول يا دستورالعمل خاص براي حل هر مسئله مي‌شوند. در حالي كه روش‌هاي هوشمند دستورالعمل‌هايي هستند كه به صورت كلي مي‌توانند در حل هر مسئله‌اي به كار گرفته شوند. اين نكته را پس از آشنايي با خود الگوريتم بيشتر و بهتر خواهيد ديد.

الگوريتم ژنتيک چيست؟

 

120,000 ریال – خرید

تمام مقالات و پایان نامه و پروژه ها به صورت فایل دنلودی می باشند و شما به محض پرداخت آنلاین مبلغ همان لحظه قادر به دریافت فایل خواهید بود. این عملیات کاملاً خودکار بوده و توسط سیستم انجام می پذیرد.

 جهت پرداخت مبلغ شما به درگاه پرداخت یکی از بانک ها منتقل خواهید شد، برای پرداخت آنلاین از درگاه بانک این بانک ها، حتماً نیاز نیست که شما شماره کارت همان بانک را داشته باشید و بلکه شما میتوانید از طریق همه کارت های عضو شبکه بانکی، مبلغ  را پرداخت نمایید. 

 

 

مطالب پیشنهادی:
  • پروژه کاربردها و مکانیزمهای شبکه های عصبی و الگوریتمهای ژنتیک در حل مسائل
  • مقاله کاربرد الگوریتم ژنتیک در برنامه ریزی فرآیند به کمک کامپیوتر(CAPP) در محیطهای صنعتی مختلف
  • مقاله مدلسازی و حل مسئله زمانبندی جریان کارگاهی با زمانهای تنظیم وابسته به توالی
  • مقاله ژنتيک
  • مقاله کاربردهای الگوریتم ژنتیک
  • برچسب ها : , , , , , , , , , ,
    برای ثبت نظر خود کلیک کنید ...

    براي قرار دادن بنر خود در اين مکان کليک کنيد
    به راهنمایی نیاز دارید؟ کلیک کنید
    

    جستجو پیشرفته مقالات و پروژه

    سبد خرید

    • سبد خریدتان خالی است.

    دسته ها

    آخرین بروز رسانی